METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING

Wielkość: px
Rozpocząć pokaz od strony:

Download "METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING"

Transkrypt

1 METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING Maszyna Wektorów Nośnych Suort Vector Machine SVM Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej Katedra Automatyki i Inżynierii Biomedycznej, Laboratorium Biocybernetyki Kraków, al. Mickiewicza 30, aw. C3/205 horzyk@agh.edu.l, Google: Adrian Horzyk

2 IDEA I NARODZINY SVM Prof. V. Vanik w 1998 r. stworzył nowe odejście do kształtowania struktury sieci neuronowej oraz definiowania roblemu uczenia róbując wyeliminować znane wady sieci neuronowych tyu MLP i RBF stosujące minimalizację nieliniowych funkcji błędu, tj.: Minimalizowana funkcja jest zwykle wielomodalna względem otymalizowanych arametrów i osiada wiele minimów lokalnych, w których roces uczenia może utknąć w zależności od unktu startowego, których zwykle istnieje nieskończona ilość. Algorytm uczący zwykle nie jest w stanie skutecznie kontrolować złożoności struktury sieci neuronowej, co w istotny sosób wływa na zdolności uogólniające sieci. Istotą zmiany jest rzedstawienie rocesu uczenia jako rocesu dobierania wag, w którym maksymalizowany jest margines searacji oddzielający skrajne (najbliższe) unkty w rzestrzeni danych definiujących różne klasy. Bierzemy więc od uwagę tylko te najtrudniej searowalne unkty rzestrzeni rzy budowie modelu, które określają tzw. wektory nośne (wsierające). Sieci SVM tworzą secyficzną dwuwarstwową strukturę neuroodobną stosującą różne rodzaje funkcji aktywacji (liniowe, wielomianowe, radialne, sigmoidalne) oraz secyficzny sosób uczenia oarty na rogramowaniu kwadratowym, które charakteryzuje się istnieniem tylko jednego minimum globalnego. Sieci SVM dedykowane są głównie do zagadnień klasyfikacji, w których jedną klasę searujemy możliwie dużym marginesem od ozostałych klas.

3 DYSKRYMINACJA i KLASYFIKACJA knn obszary Voronoi Decision Tree MLP RBF

4 Najszersza granica dyskryminacji Metoda SVM ma na celu wyznaczyć najszerszą granicę dyskryminacji sośród możliwych, których zwykle istnieje nieskończona ilość:

5 Jak dyskryminować i searować najleiej? Próbując osiągnąć jak najleszą dyskryminację wzorców oszczególnych klas warto zmaksymalizować margines oddzielający wzorce oszczególnych klas. Ponadto mając do czynienia z wieloma danymi, można ograniczyć analizę tylko do tych najtrudniejszych unktów rzestrzeni, czyli wzorców różnych klas, które leżą najbliżej, gdyż je najtrudniej zdyskryminować (odsearować). Model uwzględniający najtrudniejsze wzorce owinien charakteryzować się dobrą jakością oraz rostotą rerezentacji. Sróbujemy więc wyznaczyć otymalną hierłaszczyznę dyskryminującą wzorce jednej klasy (kwadratów) od ozostałych (tutaj kółeczek). SVM discrimination Suort Vectors

6 Maszyna Wektorów Nośnych Załóżmy, że mamy zbiór ar uczących: x i, d i dla i = 1, 2,, y gdzie x i wektor danych wejściowych d i 1; +1 rerezentuje dyskryminowane klasy: d i = +1oznacza klasę dyskryminowaną, zaś d i = 1oznacza ozostałe klasy. Przy założeniu liniowej searowalności obu klas możliwe jest określenie równania hierłaszczyzny searującej te wzorce: y x = w T x + b = 0 gdzie w wektor wag, a x wektor danych wejściowych, b olaryzacja Możemy więc zdefiniować równania decyzyjne: Jeżeli w T x + b 0 wtedy d i = +1 Jeżeli w T x + b 0 wtedy d i = 1 Suort Vectors Co możemy zaisać w ostaci nierówności: d i w T x + b 1, której sełnienie rzez ary unktów x i, d i definiuje wektory nośne (suort vectors), które decydują o ołożeniu hierłaszczyzny i szerokości marginesu searacji. Potrzebne jest więc wyznaczenie b oraz w, żeby określić decyzję.

7 Przekroczenie granic searacji Czasami jednak wystęuje konieczność zmniejszenia marginesu searacji dla roblemów niecałkowicie searowalnych liniowo oraz ewnych unktów x i, d i leżących wewnątrz strefy marginesu searacji, co możemy zaisać za omocą nierówności: d i w T x i + b 1 δ i gdzie δ i 0 i zmniejsza margines searacji, rzy czym jeśli: 0 δ i < 1 wtedy x i, d i leży o właściwej stronie hierłaszczyzny, więc decyzja o rzynależności do klasy będzie orawna, δ i = 1 wtedy x i, d i leży na hierłaszczyźnie, więc decyzja o rzynależności do klasy będzie nieokreślona, 1 < δ i wtedy x i, d i leży o niewłaściwej stronie hierłaszczyzny, więc decyzja o rzynależności do klasy będzie błędna. Określając granicę decyzyjną należy więc możliwie zminimalizować wartość δ i.

8 Szerokość marginesu searacji Szerokość marginesu searacji możemy wyznaczyć jako iloczyn kartezjański wektora wag oraz różnicy odległości dwóch wektorów nośnych należących do rzeciwnych klas: ρ = x + x w w = 2 w = 2 r x SV gdyż odległość wektorów nośnych od hierłaszczyzny określona jest nastęująco: Suort Vectors 1 dla y x r x SV = y x SV = w SV = 1 w 1 dla y x w SV = 1 Chcąc więc zmaksymalizować margines searacji omiędzy wektorami nośnymi różnych klas ρ = 2 trzeba zminimalizować w, co jest równoważne w minimalizacji wyrażenia 1 w 2 rzy ewnych ograniczeniach liniowych 2 wynikających ze zdefiniowanej nierówności decyzyjnej. W takich rzyadkach stosujemy mnożniki Lagrange a i minimalizujemy funkcję Lagrange a. y

9 Minimalizacja funkcji Lagrange a Możemy więc teraz określić funkcję Lagrange a dla roblemu maksymalizacji marginesu searacji: min w 1 2 w 2 + θ rzy zdefiniowanych ograniczeniach: d i w T x i + b 1 δ i δ i 0 gdzie θ to waga, z jaką traktowane są błędy testowania w stosunku do marginesu searacji, decydującą o złożoności sieci neuronowej, dobieraną rzez użytkownika w sosób ekserymentalny, n. metodą walidacji krzyżowej. Otrzymujemy więc nastęującą funkcję Lagrange a: L w, b, α, δ, μ = 1 2 wt w + θ δ i δ i α i d i w T x i + b 1 δ i μ i δ i gdzie α i jest wektorem mnożników Lagrange a o wartościach nieujemnych odowiadającym oszczególnym ograniczeniom funkcyjnym, a μ i ograniczeniom nierównościowym nakładanym na zmienne δ i. Rozwiązanie minimalizacji funkcji Lagrange a olega na określeniu unktu siodłowego, czyli wyznaczenia ochodnych cząstkowych względem mnożników.

10 Minimalizacja funkcji Lagrange a Warunki otymalnego rozwiązania wyznaczone są zależnościami: L w, b, α, δ, μ = 0 w = w L w, b, α, δ, μ = 0 b α i d i x i α i d i = 0 L w, b, α, δ, μ = 0 μ w i = θ α i które odstawimy teraz do funkcji Lagrange a: L w, b, α, δ, μ = 1 2 wt w + θ δ i α i d i w T x i + b 1 δ i μ i δ i = 1 α 2 i d i x i = 1 α 2 i d i x i = 1 2 α i d i x i j=1 j=1 α j d j x j + θ δ i α i d i α j d j x j x i + b 1 δ i μ i δ i j=1 α j d j x j + θ δ i α i d i x i α j d j x j + b α i d i + α i 1 δ i θ α i δ i α j d j x j + θ j=1 δ i + α i δ i = α i 1 α 2 i α j d i d j x i x j j=1 α i d i x i j=1 j=1 α j d j x j + b α i d i + α i α i δ i θ δ i

11 Problem dualny W unkcie siodłowym iloraz mnożnika Lagrange a d SV i odowiedniego ograniczenia związanego δ SV z wektorem nośnym x SV jest równy zeru (d SV δ SV = 0), gdyż δ SV =0, więc zależność: d i w T x i + b 1 δ i w unkcie wektora nośnego srowadza się do: w T x i + b = ±1 co ozwala wyznaczyć wartość b : b = ±1 w T x i Otrzymaliśmy więc roblem dualny max Q α = α i 1 α α 2 i α j d i d j x i x j j=1 rzy ograniczeniach dla i = 1, 2,, zdefiniowanych nastęująco: 0 α i θ α i d i = 0 Rozwiązanie roblemu dualnego ozwala znaleźć oszukiwaną hierłaszczyznę: y x = α i d i x i T x j + b

12 Wnioski Zmienna doełniająca δ i ani mnożniki Lagrange a nią związane nie ojawiają się w sformułowaniu roblemu dualnego. Mnożniki muszą sełniać jedynie odstawowy warunek mówiący, iż iloczyn mnożników i wartości funkcji ograniczenia dla każdej ary danych uczących jest równy zeru. Jeśli więc ograniczenie sełnione jest z nadmiarem dla wektorów nienośnych, wtedy mnożniki te muszą być równe zeru. Niezerowe wartości mnożników wystęują zaś dla wektorów nośnych. Niezerowe wartości mnożników określają wektory nośne, których ilość oznaczymy N SV, a więc równanie sieci liniowej SVM o wagach otymalnych wyznacza hierłaszczyznę zależne jest tylko od wektorów nośnych: N SV y x = α i d i x T i x j + b Większość roblemów klasyfikacji nie osiada jednak właściwości liniowej searowalności. Potrzebne jest więc nieliniowe rzutowanie danych oryginalnych w inną rzestrzeń funkcyjną, gdzie wzorce staną się searowalne liniowo i będzie można zastosować hierłaszczyznę semarującą SVM. Warunkiem jest zastosowanie transformacji nieliniowej o odowiednio wysokim wymiarze K rzestrzeni cech K N.

13 Nieliniowa sieć SVM Dla zadań niesearowalnych liniowo rzutujemy każdy wzorzec z jego N wymiarowej rzestrzeni cech do K wymiarowej rzestrzeni cech φ j x, j = 1, 2,, K. W efekcie tego nieliniowego rzekształcenia równanie hierłaszczyzny określone będzie wzorem: y x = w T φ x + b = K j=1 w i φ j x + b = 0 gdzie w i oznaczają wagi rowadzące od neuronu o nieliniowej funkcji aktywacji φ j na wektorze danych wejściowych x do wyjściowego neuronu liniowego Otrzymujemy więc dwuwarstwową strukturę sieci neuronowej zawierającą jedną warstwę ukrytą: x 1 φ 1 w 1 + y x N φ K w K

14 Nieliniowa sieć SVM Rozwiązanie roblemu ierwotnego uzyskujemy więc orzez zastąienie zmiennej x i rzez φ i x. Otrzymujemy więc: max Q α = α i 1 α α 2 i α j d i d j K x i, x j j=1 gdzie K nazywamy funkcją jądra (kernel function), zdefiniowaną nastęująco: K x i, x j = φ T x i φ x j Rozwiązanie roblemu srowadza się do wyznaczenia wartości wag sieci: w = α i d i φ x i b = ±1 w T φ x i Otrzymując ostatecznie sygnał wyjściowy dla nieliniowej sieci SVN w ostaci: N SV y x = w T φ x + b = α i d i K x i, x + b = 0 Na kandydatów na funkcje jądra K możemy wybrać funkcje sełniające warunek twierdzenia Mercera, n. funkcje gaussowskie, wielomianowe, sklejane, a nawet sigmoidalne rzy ewnych ograniczeniach.

15 Nieliniowe funkcje jądra sieci SVM Do najczęściej stosowanych funkcji jądra należą: Funkcje liniowe: K x i, x = x T x i + γ Funkcje wielomianowe: K x i, x = x T x i + γ Funkcje gaussowskie: K x i, x = ex γ x x i 2 Funkcje sigmoidalne: K x i, x = tgh βx T x i + γ Gdzie β, γ to stałe wsółczynniki liczbowe, a to stoień wielomianu. Sieć SVM o radialnych funkcjach bazowych jest bardzo odobna do sieci radialnej RBF, aczkolwiek sosób jej tworzenia i wyznaczania wag różni się. Podobnie stosując funkcje sigmoidalne otrzymujemy dwuwarstwową sieć MLP. Chcąc zastosować sieci SVM do większej ilości klas niż dwie trzeba zbudować kilka sieci SVM, które dyskryminują wzorce każdej z klas od ozostałych lub omiędzy arą każdych dwóch klas, a nastęnie wyniki są sumowane.

16 Dążenie do orawności SVM Stosuje się często wsółczynnik kary za niesełnienie któregoś z ograniczeń, co wymusza dążenie sieci do otymalności dla rzyjętych stałych. Z warunków otymalności Kuhna-Tuckera roblemu otymalizacyjnego sformułowanego dla SVM wynikają nastęujące zależności: α i d i w T φ x i + b 1 δ i = 0 0 α i θ μ i δ i = 0 α i + μ i = θ δ i 0 W zależności od wyznaczonych wsółczynników Lagrange a mamy więc do czynienia z trzema rzyadkami: α i = 0 co oznacza, że jeśli α i + μ i = θ, to μ i = θ, a więc z zależności μ i δ i = 0 wynika iż δ i = 0, stąd ara ucząca x i, d i sełnia ograniczenie z nadmiarem, a więc bez zmniejszania szerokości marginesu searacji 0 < α i < θ co oznacza, iż μ i = θ α i, a więc również δ i = 0, stąd ara ucząca x i, d i definiuje wektor nośny, który jest ołożony dokładnie na marginesie searacji. α i = θ oznacza, iż μ i = θ α i = 0, a więc δ i 0, co oznacza, iż wzorzec uczący jest wewnątrz marginesu searacji owodując zwężenie marginesu searacji albo nawet o niewłaściwej stronie, jeśli δ i > 1.

17 ALGORYTMY ROZWIĄZANIA ZADANIA DUALNEGO dla dużych zbiorów danych Niezależnie od zastosowanego jądra i rodzaju zadania główny roblem obliczeniowy w sieciach SVM srowadza się do rozwiązania zadania rogramowania kwadratowego z ograniczeniami liniowymi. Problemem staje się duża ilość danych uczących, co związane jest z nieraz ogromną ilością otymalizowanych zmiennych tutaj mnożników Lagrange a. Pojawiają się roblemy z amięcią i złożonością obliczeniową, co eliminuje możliwość zastosowania klasycznych metod rogramowania kwadratowego, n. MINOS, OSL, LOQO czy Matlab. Stosuje się dekomozycję zbioru uczącego na szereg odzbiorów oraz strategię aktywnych ograniczeń wynikających z równości, zaniedbując te nieaktywne ze znakiem silniej nierówności. Dzięki temu w kolejnych iteracjach nastęuje rzemieszczanie części wzorców ze zbioru ograniczeń aktywnych do nieaktywnych. Wykorzystuje się również różne wersje algorytmu rogramowania sekwencyjnego SMO lub BSVM Platta oraz subotymalną metodę SVM Light Joachimsa.

18 LITERATURA I BIBLIOGRAFIA Stanisław Osowski, Metody i narzędzia eksloracji danych, BTC, Legionowo, T. Joachims, Making large scale SVM learning ractical, in Advances in kernel methods suort vector learning, B. Scholkof, C. Burges, A. Smola eds., MIT Press, 41-56, Cambridge Lin C.J., Chang C.C, LIBSVM: a library for suort vector machines: htt:// Oen MIT Lectures about SVM : htts:// Caltech Lectures about SVM: htts://

UCZENIE MASZYNOWE III - SVM. mgr inż. Adam Kupryjanow

UCZENIE MASZYNOWE III - SVM. mgr inż. Adam Kupryjanow UCZENIE MASZYNOWE III - SVM mgr inż. Adam Kupryjanow Plan wykładu Wprowadzenie LSVM dane separowalne liniowo SVM dane nieseparowalne liniowo Nieliniowy SVM Kernel trick Przykłady zastosowań Historia 1992

Bardziej szczegółowo

Adrian Horzyk

Adrian Horzyk Metody Inteligencji Obliczeniowej Metoda K Najbliższych Sąsiadów (KNN) Adrian Horzyk horzyk@agh.edu.pl AGH Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej

Bardziej szczegółowo

METODY INŻYNIERII WIEDZY

METODY INŻYNIERII WIEDZY METODY INŻYNIERII WIEDZY WALIDACJA KRZYŻOWA dla ZAAWANSOWANEGO KLASYFIKATORA KNN ĆWICZENIA Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej

Bardziej szczegółowo

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ Celem ćwiczenia jest zapoznanie się ze sposobem działania sieci neuronowych typu MLP (multi-layer perceptron) uczonych nadzorowaną (z nauczycielem,

Bardziej szczegółowo

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING NEURONOWE MAPY SAMOORGANIZUJĄCE SIĘ Self-Organizing Maps SOM Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki,

Bardziej szczegółowo

7. Maszyny wektorów podpierajacych SVMs

7. Maszyny wektorów podpierajacych SVMs Algorytmy rozpoznawania obrazów 7. Maszyny wektorów podpierajacych SVMs dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. Maszyny wektorów podpierajacych - SVMs Maszyny wektorów podpierających (ang.

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA SYSTEMY ROZMYTE Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej Katedra Automatyki i Inżynierii Biomedycznej Laboratorium

Bardziej szczegółowo

METODY INŻYNIERII WIEDZY

METODY INŻYNIERII WIEDZY METODY INŻYNIERII WIEDZY Metoda K Najbliższych Sąsiadów K-Nearest Neighbours (KNN) ĆWICZENIA Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej

Bardziej szczegółowo

METODY INŻYNIERII WIEDZY

METODY INŻYNIERII WIEDZY METODY INŻYNIERII WIEDZY Metoda K Najbliższych Sąsiadów K-Nearest Neighbours (KNN) ĆWICZENIA Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej

Bardziej szczegółowo

wiedzy Sieci neuronowe

wiedzy Sieci neuronowe Metody detekcji uszkodzeń oparte na wiedzy Sieci neuronowe Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 7 Wprowadzenie Okres kształtowania się teorii sztucznych sieci

Bardziej szczegółowo

SVM: Maszyny Wektorów Podpieraja cych

SVM: Maszyny Wektorów Podpieraja cych SVM 1 / 24 SVM: Maszyny Wektorów Podpieraja cych Nguyen Hung Son Outline SVM 2 / 24 1 Wprowadzenie 2 Brak liniowej separowalności danych Nieznaczna nieseparowalność Zmiana przetrzeń atrybutów 3 Implementacja

Bardziej szczegółowo

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING NEURONOWE MAPY SAMOORGANIZUJĄCE SIĘ ĆWICZENIA Self-Organizing Maps SOM Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki,

Bardziej szczegółowo

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania Politechnika Gdańska Wydział Elektrotechniki i Autoatyki Katedra Inżynierii Systeów Sterowania Metody otyalizacji Metody rograowania nieliniowego II Materiały oocnicze do ćwiczeń laboratoryjnych T7 Oracowanie:

Bardziej szczegółowo

TRANSFORMACJE I JAKOŚĆ DANYCH

TRANSFORMACJE I JAKOŚĆ DANYCH METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING TRANSFORMACJE I JAKOŚĆ DANYCH Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej

Bardziej szczegółowo

W ostatnim wykładzie doszliśmy do tego, że problem znalezienia klasyfikatora optymalnego pod względem marginesów można wyrazić w następujący sposób:

W ostatnim wykładzie doszliśmy do tego, że problem znalezienia klasyfikatora optymalnego pod względem marginesów można wyrazić w następujący sposób: Spis treści 1 Maszyny Wektorów Wspierających 2 1.1 SVM w formaliźmie Lagranga 1.2 Przejście do pstaci dualnej 1.2.1 Wyznaczenie parametrów modelu: 1.2.2 Klasyfikacja: 2 Funkcje jądrowe 2.1 Mapowanie do

Bardziej szczegółowo

Popularne klasyfikatory w pakietach komputerowych

Popularne klasyfikatory w pakietach komputerowych Popularne klasyfikatory w pakietach komputerowych Klasyfikator liniowy Uogólniony klasyfikator liniowy SVM aiwny klasyfikator bayesowski Ocena klasyfikatora ROC Lista popularnych pakietów Klasyfikator

Bardziej szczegółowo

Uczenie sieci typu MLP

Uczenie sieci typu MLP Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik

Bardziej szczegółowo

Uczenie sieci radialnych (RBF)

Uczenie sieci radialnych (RBF) Uczenie sieci radialnych (RBF) Budowa sieci radialnej Lokalne odwzorowanie przestrzeni wokół neuronu MLP RBF Budowa sieci radialnych Zawsze jedna warstwa ukryta Budowa neuronu Neuron radialny powinien

Bardziej szczegółowo

INTERPOLACJA I APROKSYMACJA FUNKCJI

INTERPOLACJA I APROKSYMACJA FUNKCJI Transport, studia niestacjonarne I stopnia, semestr I Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Wprowadzenie Na czym polega interpolacja? Interpolacja polega

Bardziej szczegółowo

Programowanie liniowe

Programowanie liniowe Programowanie liniowe Maciej Drwal maciej.drwal@pwr.wroc.pl 1 Problem programowania liniowego min x c T x (1) Ax b, (2) x 0. (3) gdzie A R m n, c R n, b R m. Oznaczmy przez x rozwiązanie optymalne, tzn.

Bardziej szczegółowo

Wstęp do przetwarzania języka naturalnego. Wykład 11 Maszyna Wektorów Nośnych

Wstęp do przetwarzania języka naturalnego. Wykład 11 Maszyna Wektorów Nośnych Wstęp do przetwarzania języka naturalnego Wykład 11 Wojciech Czarnecki 8 stycznia 2014 Section 1 Przypomnienie Wektoryzacja tfidf Przypomnienie document x y z Antony and Cleopatra 5.25 1.21 1.51 Julius

Bardziej szczegółowo

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa

Bardziej szczegółowo

Ontogeniczne sieci neuronowe. O sieciach zmieniających swoją strukturę

Ontogeniczne sieci neuronowe. O sieciach zmieniających swoją strukturę Norbert Jankowski Ontogeniczne sieci neuronowe O sieciach zmieniających swoją strukturę Warszawa 2003 Opracowanie książki było wspierane stypendium Uniwersytetu Mikołaja Kopernika Spis treści Wprowadzenie

Bardziej szczegółowo

Opis kształtu w przestrzeni 2D. Mirosław Głowacki Wydział Inżynierii Metali i Informatyki Przemysłowej AGH

Opis kształtu w przestrzeni 2D. Mirosław Głowacki Wydział Inżynierii Metali i Informatyki Przemysłowej AGH Ois kształtu w rzestrzeni 2D Mirosław Głowacki Wydział Inżynierii Metali i Informatyki Przemysłowej AGH Krzywe Beziera W rzyadku tych krzywych wektory styczne w unkach końcowych są określane bezośrednio

Bardziej szczegółowo

Optymalizacja ciągła

Optymalizacja ciągła Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej

Bardziej szczegółowo

4.1. Wprowadzenie...70 4.2. Podstawowe definicje...71 4.3. Algorytm określania wartości parametrów w regresji logistycznej...74

4.1. Wprowadzenie...70 4.2. Podstawowe definicje...71 4.3. Algorytm określania wartości parametrów w regresji logistycznej...74 3 Wykaz najważniejszych skrótów...8 Przedmowa... 10 1. Podstawowe pojęcia data mining...11 1.1. Wprowadzenie...12 1.2. Podstawowe zadania eksploracji danych...13 1.3. Główne etapy eksploracji danych...15

Bardziej szczegółowo

Sztuczne Sieci Neuronowe

Sztuczne Sieci Neuronowe Sztuczne Sieci Neuronowe Wykład 7 Sieci neuronowe o radialnych funkcjach bazowych wykład przygotowany na podstawie. S. Osowski, Sieci Neuronowe w ujęciu algorytmicznym, Rozdz. 5, PWNT, Warszawa 1996. 26/11/08

Bardziej szczegółowo

5. Analiza dyskryminacyjna: FLD, LDA, QDA

5. Analiza dyskryminacyjna: FLD, LDA, QDA Algorytmy rozpoznawania obrazów 5. Analiza dyskryminacyjna: FLD, LDA, QDA dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. Liniowe funkcje dyskryminacyjne Liniowe funkcje dyskryminacyjne mają ogólną

Bardziej szczegółowo

WYKŁAD: Perceptron Rosenblatta. Maszyny wektorów podpierających (SVM). Empiryczne reguły bayesowskie. Zaawansowane Metody Uczenia Maszynowego

WYKŁAD: Perceptron Rosenblatta. Maszyny wektorów podpierających (SVM). Empiryczne reguły bayesowskie. Zaawansowane Metody Uczenia Maszynowego WYKŁAD: Perceptron Rosenblatta. Maszyny wektorów podpierających (SVM). Empiryczne reguły bayesowskie Zaawansowane Metody Uczenia Maszynowego Perceptron Rosenblatta Szukamy hiperpłaszczyzny β 0 + β 1 najlepiej

Bardziej szczegółowo

PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH**

PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH** Górnictwo i Geoinżynieria Rok 31 Zeszyt 3 2007 Dorota Pawluś* PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH** 1. Wstęp Eksploatacja górnicza złóż ma niekorzystny wpływ na powierzchnię

Bardziej szczegółowo

( n) Łańcuchy Markowa X 0, X 1,...

( n) Łańcuchy Markowa X 0, X 1,... Łańcuchy Markowa Łańcuchy Markowa to rocesy dyskretne w czasie i o dyskretnym zbiorze stanów, "bez amięci". Zwykle będziemy zakładać, że zbiór stanów to odzbiór zbioru liczb całkowitych Z lub zbioru {,,,...}

Bardziej szczegółowo

Data Mining Wykład 6. Naiwny klasyfikator Bayes a Maszyna wektorów nośnych (SVM) Naiwny klasyfikator Bayesa.

Data Mining Wykład 6. Naiwny klasyfikator Bayes a Maszyna wektorów nośnych (SVM) Naiwny klasyfikator Bayesa. GLM (Generalized Linear Models) Data Mining Wykład 6 Naiwny klasyfikator Bayes a Maszyna wektorów nośnych (SVM) Naiwny klasyfikator Bayesa Naiwny klasyfikator Bayesa jest klasyfikatorem statystycznym -

Bardziej szczegółowo

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia

Bardziej szczegółowo

8. Neuron z ciągłą funkcją aktywacji.

8. Neuron z ciągłą funkcją aktywacji. 8. Neuron z ciągłą funkcją aktywacji. W tym ćwiczeniu zapoznamy się z modelem sztucznego neuronu oraz przykładem jego wykorzystania do rozwiązywanie prostego zadania klasyfikacji. Neuron biologiczny i

Bardziej szczegółowo

Obóz Naukowy Olimpiady Matematycznej Gimnazjalistów

Obóz Naukowy Olimpiady Matematycznej Gimnazjalistów Obóz Naukowy Olimiady Matematycznej Gimnazjalistów Liga zadaniowa 01/01 Seria VII styczeń 01 rozwiązania zadań 1. Udowodnij, że dla dowolnej dodatniej liczby całkowitej n liczba n! jest odzielna rzez n!

Bardziej szczegółowo

METODY INŻYNIERII WIEDZY

METODY INŻYNIERII WIEDZY METODY INŻYNIERII WIEDZY SZTUCZNE SIECI NEURONOWE MLP Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej Katedra Automatyki i Inżynierii

Bardziej szczegółowo

SIECI RBF (RADIAL BASIS FUNCTIONS)

SIECI RBF (RADIAL BASIS FUNCTIONS) SIECI RBF (RADIAL BASIS FUNCTIONS) Wybrane slajdy z prezentacji prof. Tadeusiewicza Wykład Andrzeja Burdy S. Osowski, Sieci Neuronowe w ujęciu algorytmicznym, Rozdz. 5, PWNT, Warszawa 1996. opr. P.Lula,

Bardziej szczegółowo

Co to jest grupowanie

Co to jest grupowanie Grupowanie danych Co to jest grupowanie 1 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 Szukanie grup, obszarów stanowiących lokalne gromady punktów Co to jest grupowanie

Bardziej szczegółowo

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda Sieci neuropodobne 1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN Agenda Trochę neurobiologii System nerwowy w organizmach żywych tworzą trzy

Bardziej szczegółowo

Elementy Modelowania Matematycznego

Elementy Modelowania Matematycznego Elementy Modelowania Matematycznego Wykład 8 Programowanie nieliniowe Spis treści Programowanie nieliniowe Zadanie programowania nieliniowego Zadanie programowania nieliniowego jest identyczne jak dla

Bardziej szczegółowo

Zastosowania sieci neuronowych

Zastosowania sieci neuronowych Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką

Bardziej szczegółowo

WSTĘP I TAKSONOMIA METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING. Adrian Horzyk. Akademia Górniczo-Hutnicza

WSTĘP I TAKSONOMIA METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING. Adrian Horzyk. Akademia Górniczo-Hutnicza METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING WSTĘP I TAKSONOMIA Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej Katedra

Bardziej szczegółowo

PROGRAMOWANIE KWADRATOWE

PROGRAMOWANIE KWADRATOWE PROGRAMOWANIE KWADRATOWE Programowanie kwadratowe Zadanie programowania kwadratowego: Funkcja celu lub/i co najmniej jedno z ograniczeń jest funkcją kwadratową. 2 Programowanie kwadratowe Nie ma uniwersalnej

Bardziej szczegółowo

Rysunek 1 Przykładowy graf stanów procesu z dyskretnymi położeniami.

Rysunek 1 Przykładowy graf stanów procesu z dyskretnymi położeniami. Procesy Markowa Proces stochastyczny { X } t t nazywamy rocesem markowowskim, jeśli dla każdego momentu t 0 rawdoodobieństwo dowolnego ołożenia systemu w rzyszłości (t>t 0 ) zależy tylko od jego ołożenia

Bardziej szczegółowo

Elementy Modelowania Matematycznego Wykład 7 Programowanie nieliniowe i całkowitoliczbowe

Elementy Modelowania Matematycznego Wykład 7 Programowanie nieliniowe i całkowitoliczbowe Spis treści Elementy Modelowania Matematycznego Wykład 7 i całkowitoliczbowe Romuald Kotowski Katedra Informatyki Stosowanej PJWSTK 2009 Spis treści Spis treści 1 Wstęp 2 3 Spis treści Spis treści 1 Wstęp

Bardziej szczegółowo

1. Model procesu krzepnięcia odlewu w formie metalowej. Przyjęty model badanego procesu wymiany ciepła składa się z następujących założeń

1. Model procesu krzepnięcia odlewu w formie metalowej. Przyjęty model badanego procesu wymiany ciepła składa się z następujących założeń ROK 4 Krzenięcie i zasilanie odlewów Wersja 9 Ćwicz. laboratoryjne nr 4-04-09/.05.009 BADANIE PROCESU KRZEPNIĘCIA ODLEWU W KOKILI GRUBOŚCIENNEJ PRZY MAŁEJ INTENSYWNOŚCI STYGNIĘCIA. Model rocesu krzenięcia

Bardziej szczegółowo

Laboratorium Metod i Algorytmów Sterowania Cyfrowego

Laboratorium Metod i Algorytmów Sterowania Cyfrowego Laboratorium Metod i Algorytmów Sterowania Cyfrowego Ćwiczenie 3 Dobór nastaw cyfrowych regulatorów rzemysłowych PID I. Cel ćwiczenia 1. Poznanie zasad doboru nastaw cyfrowych regulatorów rzemysłowych..

Bardziej szczegółowo

BIOCYBERNETYKA SIECI NEURONOWE. Akademia Górniczo-Hutnicza. Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej.

BIOCYBERNETYKA SIECI NEURONOWE. Akademia Górniczo-Hutnicza. Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej. Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej BIOCYBERNETYKA Adrian Horzyk SIECI NEURONOWE www.agh.edu.pl Mózg inspiruje nas od wieków Co takiego

Bardziej szczegółowo

Prof. Stanisław Jankowski

Prof. Stanisław Jankowski Prof. Stanisław Jankowski Zakład Sztucznej Inteligencji Zespół Statystycznych Systemów Uczących się p. 228 sjank@ise.pw.edu.pl Zakres badań: Sztuczne sieci neuronowe Maszyny wektorów nośnych SVM Maszyny

Bardziej szczegółowo

INTERPRETACJA WYNIKÓW BADANIA WSPÓŁCZYNNIKA PARCIA BOCZNEGO W GRUNTACH METODĄ OPARTĄ NA POMIARZE MOMENTÓW OD SIŁ TARCIA

INTERPRETACJA WYNIKÓW BADANIA WSPÓŁCZYNNIKA PARCIA BOCZNEGO W GRUNTACH METODĄ OPARTĄ NA POMIARZE MOMENTÓW OD SIŁ TARCIA Górnictwo i Geoinżynieria Rok 3 Zeszyt 008 Janusz aczmarek* INTERPRETACJA WYNIÓW BADANIA WSPÓŁCZYNNIA PARCIA BOCZNEGO W GRUNTACH METODĄ OPARTĄ NA POMIARZE MOMENTÓW OD SIŁ TARCIA 1. Wstę oncecję laboratoryjnego

Bardziej szczegółowo

OPTYMALNE PROJEKTOWANIE ELEMENTÓW KONSTRUKCYJNYCH WYKONANYCH Z KOMPOZYTÓW WŁÓKNISTYCH

OPTYMALNE PROJEKTOWANIE ELEMENTÓW KONSTRUKCYJNYCH WYKONANYCH Z KOMPOZYTÓW WŁÓKNISTYCH Zeszyty Naukowe WSInf Vol 13, Nr 1, 2014 Elżbieta Radaszewska, Jan Turant Politechnika Łódzka Katedra Mechaniki i Informatyki Technicznej email: elzbieta.radaszewska@.lodz.l, jan.turant@.lodz.l OPTYMALNE

Bardziej szczegółowo

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe. Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe. zajecia.jakubw.pl/nai Literatura: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym. WNT, Warszawa 997. PODSTAWOWE ZAGADNIENIA TECHNICZNE AI

Bardziej szczegółowo

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING. EKSPLORACJA DANYCH Ćwiczenia. Adrian Horzyk. Akademia Górniczo-Hutnicza

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING. EKSPLORACJA DANYCH Ćwiczenia. Adrian Horzyk. Akademia Górniczo-Hutnicza METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING EKSPLORACJA DANYCH Ćwiczenia Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA WYKŁAD 8. SZTUCZNE SIECI NEURONOWE INNE ARCHITEKTURY Częstochowa 24 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska SIEĆ O RADIALNYCH FUNKCJACH BAZOWYCH

Bardziej szczegółowo

ALGORYTMY OPTYMALIZACJI wyklad 3.nb 1. Wykład 3. Sformułujemy teraz warunki konieczne dla istnienia rozwiązań zagadnienia optymalizacyjnego:

ALGORYTMY OPTYMALIZACJI wyklad 3.nb 1. Wykład 3. Sformułujemy teraz warunki konieczne dla istnienia rozwiązań zagadnienia optymalizacyjnego: ALGORYTMY OPTYMALIZACJI wyklad 3.nb 1 Wykład 3 3. Otymalizacja z ograniczeniami Sformułujemy teraz warunki konieczne dla istnienia rozwiązań zagadnienia otymalizacyjnego: g i HxL 0, i = 1, 2,..., m (3.1)

Bardziej szczegółowo

Metody eksploracji danych 2. Metody regresji. Piotr Szwed Katedra Informatyki Stosowanej AGH 2017

Metody eksploracji danych 2. Metody regresji. Piotr Szwed Katedra Informatyki Stosowanej AGH 2017 Metody eksploracji danych 2. Metody regresji Piotr Szwed Katedra Informatyki Stosowanej AGH 2017 Zagadnienie regresji Dane: Zbiór uczący: D = {(x i, y i )} i=1,m Obserwacje: (x i, y i ), wektor cech x

Bardziej szczegółowo

Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek

Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek Sztuczne sieci neuronowe Ćwiczenia Piotr Fulmański, Marta Grzanek Piotr Fulmański 1 Wydział Matematyki i Informatyki, Marta Grzanek 2 Uniwersytet Łódzki Banacha 22, 90-232, Łódź Polska e-mail 1: fulmanp@math.uni.lodz.pl,

Bardziej szczegółowo

Lekcja 5: Sieć Kohonena i sieć ART

Lekcja 5: Sieć Kohonena i sieć ART Lekcja 5: Sieć Kohonena i sieć ART S. Hoa Nguyen 1 Materiał Sieci Kohonena (Sieć samo-organizująca) Rysunek 1: Sieć Kohonena Charakterystyka sieci: Jednowarstwowa jednokierunkowa sieć. Na ogół neurony

Bardziej szczegółowo

PROGRAMOWANIE NIELINIOWE

PROGRAMOWANIE NIELINIOWE PROGRAMOWANIE NIELINIOWE Maciej Patan Uniwersytet Zielonogórski WSTEP Zadanie programowania nieliniowego (ZPN) min f(x) g i (x) 0, h i (x) = 0, i = 1,..., m g i = 1,..., m h f(x) funkcja celu g i (x) i

Bardziej szczegółowo

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Trening jednokierunkowych sieci neuronowych wykład 2. dr inż. PawełŻwan Katedra Systemów Multimedialnych Politechnika Gdańska

Bardziej szczegółowo

Klasyfikator liniowy Wstęp Klasyfikator liniowy jest najprostszym możliwym klasyfikatorem. Zakłada on liniową separację liniowy podział dwóch klas między sobą. Przedstawia to poniższy rysunek: 5 4 3 2

Bardziej szczegółowo

Optymalizacja systemów

Optymalizacja systemów Optymalizacja systemów Laboratorium - problem detekcji twarzy autorzy: A. Gonczarek, J.M. Tomczak, S. Zaręba, P. Klukowski Cel zadania Celem zadania jest zapoznanie się z gradientowymi algorytmami optymalizacji

Bardziej szczegółowo

Projekt Sieci neuronowe

Projekt Sieci neuronowe Projekt Sieci neuronowe Chmielecka Katarzyna Gr. 9 IiE 1. Problem i dane Sieć neuronowa miała za zadanie nauczyć się klasyfikować wnioski kredytowe. W projekcie wykorzystano dane pochodzące z 110 wniosków

Bardziej szczegółowo

TOZ -Techniki optymalizacji w zarządzaniu

TOZ -Techniki optymalizacji w zarządzaniu TOZ -Techniki optymalizacji w zarządzaniu Wykład dla studentów II roku studiów II stopnia na kierunku Zarządzanie Semestr zimowy 2009/2010 Wykładowca: prof. dr hab. inż. Michał Inkielman Wykład 2 Optymalizacja

Bardziej szczegółowo

Systemy Inteligentnego Przetwarzania wykład 7: Sieci RBF

Systemy Inteligentnego Przetwarzania wykład 7: Sieci RBF Systemy Inteligentnego Przetwarzania wykład 7: Sieci RBF Dr inż. Jacek Mazurkiewicz Katedra Informatyki Technicznej e-mail: Jacek.Mazurkiewicz@pwr.edu.pl Bazowe funkcje radialne (1) Sieci neuronowe wielowarstwowe

Bardziej szczegółowo

PODSTAWY AUTOMATYKI. MATLAB - komputerowe środowisko obliczeń naukowoinżynierskich - podstawowe operacje na liczbach i macierzach.

PODSTAWY AUTOMATYKI. MATLAB - komputerowe środowisko obliczeń naukowoinżynierskich - podstawowe operacje na liczbach i macierzach. WYDZIAŁ ELEKTROTECHNIKI I AUTOMATYKI Katedra Inżynierii Systemów Sterowania PODSTAWY AUTOMATYKI MATLAB - komputerowe środowisko obliczeń naukowoinżynierskich - podstawowe operacje na liczbach i macierzach.

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline. Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka Adaline. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 211-1-18 1 Pomysł Przykłady Zastosowanie 2

Bardziej szczegółowo

6. Perceptron Rosenblatta

6. Perceptron Rosenblatta 6. Perceptron Rosenblatta 6-1 Krótka historia perceptronu Rosenblatta 6-2 Binarne klasyfikatory liniowe 6-3 Struktura perceptronu Rosenblatta 6-4 Perceptron Rosenblatta a klasyfikacja 6-5 Perceptron jednowarstwowy:

Bardziej szczegółowo

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna. Sieci neuronowe model konekcjonistyczny Plan wykładu Mózg ludzki a komputer Modele konekcjonistycze Perceptron Sieć neuronowa Uczenie sieci Sieci Hopfielda Mózg ludzki a komputer Twój mózg to 00 000 000

Bardziej szczegółowo

Optymalizacja ciągła

Optymalizacja ciągła Optymalizacja ciągła 4. Metody kierunków poprawy (metoda spadku wzdłuż gradientu) Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 21.03.2019 1 / 41 Plan wykładu Minimalizacja

Bardziej szczegółowo

Programowanie liniowe

Programowanie liniowe Badania operacyjne Problem Model matematyczny Metoda rozwiązania Znaleźć optymalny program produkcji. Zmaksymalizować 1 +3 2 2 3 (1) Przy ograniczeniach 3 1 2 +2 3 7 (2) 2 1 +4 2 12 (3) 4 1 +3 2 +8 3 10

Bardziej szczegółowo

Przykładowe funkcje przejścia używane przy budowie sztucznych neuronów

Przykładowe funkcje przejścia używane przy budowie sztucznych neuronów Przykładowe funkcje przejścia używane przy budowie sztucznych neuronów Funkcja Wzór funkcji Wzór pochodnej Sigmoida f(s)=1/(1+e -(β*s) ) f (s)=β*(1- f(s))* f(s) Funkcje przejścia neuronu powinno się rozpatrywać

Bardziej szczegółowo

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania. Technologie informatyczne

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania. Technologie informatyczne Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania Technologie informatyczne Interpolacja metoda funkcji sklejanych Materiały pomocnicze do ćwiczeń laboratoryjnych

Bardziej szczegółowo

Kody Huffmana oraz entropia przestrzeni produktowej. Zuzanna Kalicińska. 1 maja 2004

Kody Huffmana oraz entropia przestrzeni produktowej. Zuzanna Kalicińska. 1 maja 2004 Kody uffmana oraz entroia rzestrzeni rodutowej Zuzanna Kalicińsa maja 4 Otymalny od bezrefisowy Definicja. Kod nad alfabetem { 0, }, w tórym rerezentacja żadnego znau nie jest refisem rerezentacji innego

Bardziej szczegółowo

n := {n} n. Istnienie liczb naturalnych gwarantują: Aksjomat zbioru pustego, Aksjomat pary nieuporządkowanej oraz Aksjomat sumy.

n := {n} n. Istnienie liczb naturalnych gwarantują: Aksjomat zbioru pustego, Aksjomat pary nieuporządkowanej oraz Aksjomat sumy. Konsekt wykładu ELiTM 6 Konstrukcje liczbowe Konstrukcja von Neumanna liczb naturalnych. Definicja 0 - liczba naturalna zero. Jeżeli n jest liczbą naturalną, to nastęną o niej jest liczba n {n} n. Istnienie

Bardziej szczegółowo

Podstawy sztucznej inteligencji

Podstawy sztucznej inteligencji wykład 5 Sztuczne sieci neuronowe (SSN) 8 grudnia 2011 Plan wykładu 1 Biologiczne wzorce sztucznej sieci neuronowej 2 3 4 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką,

Bardziej szczegółowo

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335 Sztuczne sieci neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335 Wykład 10 Mapa cech Kohonena i jej modyfikacje - uczenie sieci samoorganizujących się - kwantowanie wektorowe

Bardziej szczegółowo

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING UCZENIE GŁĘBOKIE I GŁĘBOKIE SIECI NEURONOWE DEEP LEARNING AND DEEP NEURAL NETWORKS Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki,

Bardziej szczegółowo

Widzenie komputerowe

Widzenie komputerowe Widzenie komputerowe Uczenie maszynowe na przykładzie sieci neuronowych (3) źródła informacji: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym, WNT 1996 Zdolność uogólniania sieci neuronowej R oznaczenie

Bardziej szczegółowo

Metody klasyfikacji i rozpoznawania wzorców. Najważniejsze rodzaje klasyfikatorów

Metody klasyfikacji i rozpoznawania wzorców.  Najważniejsze rodzaje klasyfikatorów Metody klasyfikacji i rozpoznawania wzorców www.michalbereta.pl Najważniejsze rodzaje klasyfikatorów Dla określonego problemu klasyfikacyjnego (tzn. dla danego zestawu danych) należy przetestować jak najwięcej

Bardziej szczegółowo

Programowanie matematyczne

Programowanie matematyczne dr Adam Sojda Badania Operacyjne Wykład Politechnika Śląska Programowanie matematyczne Programowanie matematyczne, to problem optymalizacyjny w postaci: f ( x) max przy warunkach g( x) 0 h( x) = 0 x X

Bardziej szczegółowo

Metody Sztucznej Inteligencji II

Metody Sztucznej Inteligencji II 17 marca 2013 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką, która jest w stanie odbierać i przekazywać sygnały elektryczne. Neuron działanie Jeżeli wartość sygnału

Bardziej szczegółowo

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311 Sztuczne sieci neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311 PLAN: Wykład 5 - Metody doboru współczynnika uczenia - Problem inicjalizacji wag - Problem doboru architektury

Bardziej szczegółowo

Automatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010

Automatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010 Materiały/konsultacje Automatyczna predykcja http://www.ibp.pwr.wroc.pl/kotulskalab Konsultacje wtorek, piątek 9-11 (uprzedzić) D1-115 malgorzata.kotulska@pwr.wroc.pl Co to jest uczenie maszynowe? Uczenie

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane. Wstęp do sieci neuronowych, wykład 7. M. Czoków, J. Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 212-11-28 Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu

Bardziej szczegółowo

Metody doświadczalne w hydraulice Ćwiczenia laboratoryjne. 1. Badanie przelewu o ostrej krawędzi

Metody doświadczalne w hydraulice Ćwiczenia laboratoryjne. 1. Badanie przelewu o ostrej krawędzi Metody doświadczalne w hydraulice Ćwiczenia laboratoryjne 1. Badanie rzelewu o ostrej krawędzi Wrowadzenie Przelewem nazywana jest cześć rzegrody umiejscowionej w kanale, onad którą może nastąić rzeływ.

Bardziej szczegółowo

Elementy inteligencji obliczeniowej

Elementy inteligencji obliczeniowej Elementy inteligencji obliczeniowej Paweł Liskowski Institute of Computing Science, Poznań University of Technology 9 October 2018 1 / 19 Perceptron Perceptron (Rosenblatt, 1957) to najprostsza forma sztucznego

Bardziej szczegółowo

KONCEPCJA WYKORZYSTANIA SZTUCZNYCH SIECI NEURONOWYCH W DIAGNOSTYCE PRZEKŁADNI ZĘBATYCH

KONCEPCJA WYKORZYSTANIA SZTUCZNYCH SIECI NEURONOWYCH W DIAGNOSTYCE PRZEKŁADNI ZĘBATYCH ZESZYTY NAUKOWE POLITECHNIKI ŚLĄSKIEJ 2009 Seria: TRANSPORT z. 65 Nr kol. 1807 Piotr CZECH, Bogusław ŁAZARZ KONCEPCJA WYKORZYSTANIA SZTUCZNYCH SIECI NEURONOWYCH W DIAGNOSTYCE PRZEKŁADNI ZĘBATYCH Streszczenie.

Bardziej szczegółowo

Obliczenia iteracyjne

Obliczenia iteracyjne Lekcja Strona z Obliczenia iteracyjne Zmienne iteracyjne (wyliczeniowe) Obliczenia iteracyjne wymagają zdefiniowania specjalnej zmiennej nazywanej iteracyjną lub wyliczeniową. Zmienną iteracyjną od zwykłej

Bardziej szczegółowo

Podstawy Sztucznej Inteligencji (PSZT)

Podstawy Sztucznej Inteligencji (PSZT) Podstawy Sztucznej Inteligencji (PSZT) Paweł Wawrzyński Uczenie maszynowe Sztuczne sieci neuronowe Plan na dziś Uczenie maszynowe Problem aproksymacji funkcji Sieci neuronowe PSZT, zima 2013, wykład 12

Bardziej szczegółowo

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania KOMPUTEROWE SYSTEMY STEROWANIA I WSPOMAGANIA DECYZJI Rozproszone programowanie produkcji z wykorzystaniem

Bardziej szczegółowo

PRÓBA ZASTOSOWANIA SIECI NEURONOWYCH DO PROGNOZOWANIA OSIADAŃ POWIERZCHNI TERENU POWSTAŁYCH NA SKUTEK EKSPLOATACJI GÓRNICZEJ**

PRÓBA ZASTOSOWANIA SIECI NEURONOWYCH DO PROGNOZOWANIA OSIADAŃ POWIERZCHNI TERENU POWSTAŁYCH NA SKUTEK EKSPLOATACJI GÓRNICZEJ** Górnictwo i Geoinżynieria Rok 30 Zeszyt 4 2006 Dorota Pawluś* PRÓBA ZASTOSOWANIA SIECI NEURONOWYCH DO PROGNOZOWANIA OSIADAŃ POWIERZCHNI TERENU POWSTAŁYCH NA SKUTEK EKSPLOATACJI GÓRNICZEJ** 1. Wstęp Na

Bardziej szczegółowo

SIEĆ NEURONOWA DO OCENY KOŃCOWEJ PRZEDSIĘWZIĘCIA (PROJEKTU)

SIEĆ NEURONOWA DO OCENY KOŃCOWEJ PRZEDSIĘWZIĘCIA (PROJEKTU) SIEĆ NEURONOWA DO OCENY KOŃCOWEJ PRZEDSIĘWZIĘCIA (PROJEKTU) 1. Opis problemu - ocena końcowa projektu Projekt jako nowe, nietypowe przedsięwzięcie wymaga właściwego zarządzania. Podjęcie się realizacji

Bardziej szczegółowo

KLASYFIKACJA TEKSTUR ZA POMOCĄ SVM MASZYNY WEKTORÓW WSPIERAJĄCYCH

KLASYFIKACJA TEKSTUR ZA POMOCĄ SVM MASZYNY WEKTORÓW WSPIERAJĄCYCH Inżynieria Rolnicza 13/2006 Jacek Goszczyński Instytut Inżynierii Rolniczej Akademia Rolnicza w Poznaniu KLASYFIKACJA TEKSTUR ZA POMOCĄ SVM MASZYNY WEKTORÓW WSPIERAJĄCYCH Streszczenie Motywacją do badań

Bardziej szczegółowo

DEKOMPOZYCJA HIERARCHICZNEJ STRUKTURY SZTUCZNEJ SIECI NEURONOWEJ I ALGORYTM KOORDYNACJI

DEKOMPOZYCJA HIERARCHICZNEJ STRUKTURY SZTUCZNEJ SIECI NEURONOWEJ I ALGORYTM KOORDYNACJI POZNAN UNIVE RSITY OF TE CHNOLOGY ACADE MIC JOURNALS No 80 Electrical Engineering 2014 Stanisław PŁACZEK* DEKOMPOZYCJA HIERARCHICZNEJ STRUKTURY SZTUCZNEJ SIECI NEURONOWEJ I ALGORYTM KOORDYNACJI W artykule

Bardziej szczegółowo

METODY INTELIGENCJI OBLICZENIOWEJ wykład 5

METODY INTELIGENCJI OBLICZENIOWEJ wykład 5 METODY INTELIGENCJI OBLICZENIOWEJ wykład 5 1 2 SZTUCZNE SIECI NEURONOWE cd 3 UCZENIE PERCEPTRONU: Pojedynczy neuron (lub 1 warstwa neuronów) typu percep- tronowego jest w stanie rozdzielić przestrzeń obsza-

Bardziej szczegółowo

Optymalizacja ciągła

Optymalizacja ciągła Optymalizacja ciągła 5. Metody kierunków poparwy (metoda Newtona-Raphsona, metoda gradientów sprzężonych) Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 28.03.2019 1

Bardziej szczegółowo

Sieci neuronowe w Statistica

Sieci neuronowe w Statistica http://usnet.us.edu.pl/uslugi-sieciowe/oprogramowanie-w-usk-usnet/oprogramowaniestatystyczne/ Sieci neuronowe w Statistica Agnieszka Nowak - Brzezińska Podstawowym elementem składowym sztucznej sieci neuronowej

Bardziej szczegółowo

Sieć przesyłająca żetony CP (counter propagation)

Sieć przesyłająca żetony CP (counter propagation) Sieci neuropodobne IX, specyficzne architektury 1 Sieć przesyłająca żetony CP (counter propagation) warstwa Kohonena: wektory wejściowe są unormowane jednostki mają unormowane wektory wag jednostki są

Bardziej szczegółowo