Wielokategorialne systemy uczące się i ich zastosowanie w bioinformatyce. Rafał Grodzicki

Wielkość: px
Rozpocząć pokaz od strony:

Download "Wielokategorialne systemy uczące się i ich zastosowanie w bioinformatyce. Rafał Grodzicki"

Transkrypt

1 Welokategoralne systemy uząe sę h zastosowane w bonformatye Rafał Grodzk

2 Welokategoralny system uząy sę (multlabel learnng system) Zbór danyh weśowyh: d X = R Zbór klas (kategor): { 2 } =...Q Zbór uząy: T x x... x x X {( ) ( ) ( )} = 2 2 m m Welokategoralny system uząy sę Utworzene welokategoralnego klasyfkatora: h : X 2

3 Welokategoralny system uząy sę (multlabel learnng system) Zamast klasyfkatora (h) system tworzy funkę: f : X R Dla pary uząe ( x ) x X system dąŝy do generowana funk spełnaąe warunek Na podstawe utworzone funk moŝna wygenerować klasyfkator: x X h x = y : f x y > t( x) gdze t : X R est funką progową ( y y ) f ( x y ) f ( x y ) 2 > ( ) ( ) { ( ) } 2

4 Problem welokategoralne klasyfka. Dekompozya na nezaleŝne problemy klasyfka bnarne Ne uwzględna korela pomędzy róŝnym klasam 2. KaŜdy podzbór kategor stanow oddzelną klasę Generue duŝą lzbę klas (Q kategor 2 Q klas)

5 Problem welokategoralne klasyfka Dobry welokategoralny system uząy sę Uwzględnane korela pomędzy róŝnym klasam (kategoram) Zahowane małe lzby klas

6 Seć neuronowa ako welokategoralny klasyfkator BP-MLL (Bakpropagaton for Multlabel Learnng) Autorzy: Mn-Lng Zhang Zh-Hua Zhou Perwszy welokategoralny system uząy sę oparty na seah neuronowyh Pereptron ze zmodyfkowaną funką błędu Uzene wstezna propagaa błędu

7 Seć neuronowa ako welokategoralny klasyfkator Arhtektura

8 Seć neuronowa ako welokategoralny klasyfkator Funka błędu Klasyzna błąd średnokwadratowy E = E = + = Uwzględna poszzególne kategore nezaleŝne Ne uwzględna korela pomędzy kategoram (klasam) Na wyśu se pownny być wększe wartoś dla kategor naleŝąyh do nŝ dla kategor spoza m m Q ( ) 2 d = ( x ) d = = =

9 Seć neuronowa ako welokategoralny klasyfkator Funka błędu Zmodyfkowana E m m = E = e = ( k l ) = ( k l ) = ( x ) Konentraa na róŝny pomędzy wartośą wyśowym dla kategor naleŝąyh do a wartośam wyśowy dla kategor spoza Slne karane w przypadku wartoś wyśowyh dla kategor spoza wększyh nŝ dla kategor z Uwzględna zaleŝnoś pomędzy róŝnym klasam wększe wartoś na wyśu se dla kategor naleŝąyh do nŝ dla kategor spoza

10 Seć neuronowa ako welokategoralny klasyfkator Funka błędu Przykład Ozekwane wartoś na wyśu se: - Rzezywste wartoś na wyśu se Klasyzna funka błędu Zmodyfkowana funka błędu

11 Seć neuronowa ako welokategoralny klasyfkator Uzene Algorytm wstezne propaga błędu Modyfkae wag (warstwy ukryta wyśowa): Modyfkae wag (warstwy ukryta wyśowa): ( ) ( )( ) ( ) ( )( ) + + = = = k l s s s e e d b d w E w k l µ µ

12 Seć neuronowa ako welokategoralny klasyfkator Uzene Algorytm wstezne propaga błędu Modyfkae wag (warstwy weśowa ukryta): v e s hs = E = µ v Q = d w hs s = µ e s ( + b )( b ) s a h s

13 Seć neuronowa ako welokategoralny klasyfkator Klasyfkaa Na podstawe wartoś wyśowyh se ustalany est zbór kategor (klas) odpowadaąy danym weśowym: { : > t( x) } gdze t : X R est funką progową Funka progowa: Stała funka (t(x) = 0) Wyznazana na podstawe zboru uząego

14 Seć neuronowa ako welokategoralny klasyfkator Klasyfkaa Funka progowa wyznazane na podstawe zboru uząego: T T Defna: t( x) = w ( x) + b ( x) = ( ( x) 2( x)... Q ( x) ) Dla kaŝde pary uząe ( x ) x X określona est wartość funk progowe: t x = arg mn k : t + l : t ( ) { } { } t Parametry funk progowe wyznazane na podstawe rozwązana równana: Aw' = t ( ) k T T [ ] = (... ) w' = ( w b) t t( x ) t( x )... t( x ) A 2 Q = l ( ) 2 m

15 Mary oeny akoś klasyfka welokategoralne Hammng loss Określa ak zęsto występue błędna klasyfkaa Im mnesza wartość tym lepe hloss h ( h) h( x ) ( x ) = ( h( x ) )\ ( h( x ) ) S p = p Q =

16 Mary oeny akoś klasyfka welokategoralne One-error Określa ak zęsto kategora o nawyŝsze wartoś wyśowe ne naleŝy do zboru wartoś wyśowe ne naleŝy do zboru Im mnesza wartość tym lepe oneerror S p p ( [( ) ] y?: 0) ( f ) = arg max f ( x y) =

17 Mary oeny akoś klasyfka welokategoralne Rankng loss Określa uśrednoną zęść par kategor ( ) ( ) ( ) ( ) y x f y x f y y y y Im mnesza wartość tym lepe ( ) ( ) ( ) ( ) y x f y x f y y y y ( ) ( ) ( ) ( ) { } = = p S y x f y x f y y p f rloss 2 2 :

18 Klasyfkaa welokategoralna zastosowane w bonformatye Genomka funkonalna (funtonal genoms) Cele: Określene funk genów kodowanyh przez ne bałek Poznane proesów zahodząyh w organzmah Ŝywyh Narzędza: Mkromaerze DNA Pozomy ekspres genów w róŝnyh warunkah Sekwene nukleotydów w danym gene amnokwasów w bałku kodowanym przez gen Profle flogenetyzne Cąg btów odpowadaąyh genomom róŝnyh gatunków gen występue w danym genome 0 w p.p.

19 Klasyfkaa welokategoralna zastosowane w bonformatye Genomka funkonalna (funtonal genoms) Problem klasyfka welokategoralne: KaŜdy gen powązany ze zborem funk (klas) Przykład genom droŝdŝy: Określone 4 klas funk genów Gen AL062w naleŝy do klas: Metabolsm Energy Cellular Bogeness

20 Klasyfkaa welokategoralna zastosowane w bonformatye Klasyfkaa welokategoralna w genome droŝdŝy

21 Wyznazane klas fukonalnyh genomu droŝdŝy (za pomoą BP-MLL) Dane weśowe Profle ekspres genów (z mkromaerzy DNA) Profle flogenetyzne 03 wymarowy wektor Zbór klas funkonalnyh Struktura herarhzna 4 pozomy. pozom 4 klas funkonalnyh KaŜdy gen powązany z weloma klasam: średna: 4.24 odhylene standardowe:.57 Zbór uząy 247 genów powązanyh z klasam funkonalnym

22 Wyznazane klas fukonalnyh genomu droŝdŝy (za pomoą BP-MLL) Parametry se neuronowe Współzynnk uzena: 0.05 Lzba neuronów w warstwe ukryte: Od 20 do 00 proent lzby elementów weśowyh (krok: 20 proent) 00 epok Przebeg uzena Waldaa krzyŝowa Zbór danyh losowo dzelony na 0 równyh zęś 0 ykl uzena ześć zbór testowy 9 zęś zbór uząy Wyznazene mar oeny akoś klasyfka Wyznazene uśrednonyh (z 0 ykl) mar oeny akoś klasyfka

23 Wyznazane klas fukonalnyh genomu droŝdŝy (za pomoą BP-MLL) Mary akoś: Błąd globalny

24 Wyznazane klas fukonalnyh genomu droŝdŝy (za pomoą BP-MLL) Mary akoś: Hammng loss

25 Wyznazane klas fukonalnyh genomu droŝdŝy (za pomoą BP-MLL) Mary akoś: One-error

26 Wyznazane klas fukonalnyh genomu droŝdŝy (za pomoą BP-MLL) Mary akoś: Rankng loss

27 Wyznazane klas fukonalnyh genomu droŝdŝy (za pomoą BP-MLL) BP-MLL a klasyzny pereptron Mara akoś klasyfka BP-MLL Klasyzny pereptron Hammng loss (±0.0) (±0.008) One-error (±0.034) (±0.032) Rankng loss 0.7 (±0.05) 0.84 (±0.07) Lzba neuronów w warstwe ukryte 20% lzby elementów weśowyh

28 Propozye eksperymentów badawzyh Zastąpene pereptronu seą radalną Warstwa ukryta neurony radalne opsane np. funką Gaussa: Uzene ϕ ( 2 x; σ ) = e x 2 2σ Parametry neuronów warstwy ukryte radalnyh uzene bez nadzoru klasteryzaa (np. k-means) Wag połązeń (warstwy ukryta wyśowa) Wstezna propagaa błędu

29 Propozye eksperymentów badawzyh Modyfkae funk błędu ( ) ( ) ( ) m m ( ) ( ) ( ) ( ) m l k m x e E E l k = = = = = max ( ) ( ) ( ) ( ) ( ) ( ) ( ) m K K l k m x e K K E E l k = = = = = max mn max mn

30 Propozye eksperymentów badawzyh Modyfkae funk progowe Uogólnene ZaleŜność od: wektora weśowego kategor (klas) Adaptaa parametrów funk progowe na podstawe zboru uząego

31 Bblografa Mn-Lng Zhang Zh-Hua Zhou - "Multlabel Neural Networks wth Applatons to Funtonal Genoms and Text Categorzaton" IEEE TRANSACTIONS ON KNOWLEDGE AND DATA ENGINEERING VOL. 8 NO A. Clare "Mahne Learnng and Data Mnng for east Funtonal Genoms" PhD dssertaton Dept. of Computer Sene Unv. of Wales Aberystwyth 2003 A. Elsseeff J. Weston - "A Kernel Method for Mult-Labelled Classfaton" Advanes n Neural Informaton Proessng Systems vol. 4 pp A. Clare R.D. Kng "Knowledge Dsovery n Mult-Label Phenotype Data" Leture Notes n Computer Sene vol. 268 pp Berln: Sprnger 200 P. Pavlds J. Weston J. Ca and W.N. Grundy "Combnng Mroarray Expresson Data and Phylogenet Profles to Learn Funtonal Categores Usng Support Vetor Mahnes" Pro. Ffth Ann. Int l Conf. Computatonal Moleular Bology (RECOMB 0) pp

Zastosowanie sieci neuronowych w problemie klasyfikacji wielokategorialnej. Adam Żychowski

Zastosowanie sieci neuronowych w problemie klasyfikacji wielokategorialnej. Adam Żychowski Zastosowanie sieci neuronowych w problemie klasyfikacji wielokategorialnej Adam Żychowski Definicja problemu Każdy z obiektów może należeć do więcej niż jednej kategorii. Alternatywna definicja Zastosowania

Bardziej szczegółowo

Neural networks. Krótka historia 2004-05-30. - rozpoznawanie znaków alfanumerycznych.

Neural networks. Krótka historia 2004-05-30. - rozpoznawanie znaków alfanumerycznych. Neural networks Lecture Notes n Pattern Recognton by W.Dzwnel Krótka hstora McCulloch Ptts (1943) - perwszy matematyczny ops dzalana neuronu przetwarzana przez nego danych. Proste neurony, które mogly

Bardziej szczegółowo

NEURAL NETWORK ) FANN jest biblioteką implementującą SSN, którą moŝna wykorzystać. w C, C++, PHP, Pythonie, Delphi a nawet w środowisku. Mathematica.

NEURAL NETWORK ) FANN jest biblioteką implementującą SSN, którą moŝna wykorzystać. w C, C++, PHP, Pythonie, Delphi a nawet w środowisku. Mathematica. Wykorzystanie sztucznych sieci neuronowych do rozpoznawania języków: polskiego, angielskiego i francuskiego Tworzenie i nauczanie sieci przy pomocy języka C++ i biblioteki FANN (Fast Artificial Neural

Bardziej szczegółowo

ZASADY WYZNACZANIA DEPOZYTÓW ZABEZPIECZAJĄCYCH PO WPROWADZENIU DO OBROTU OPCJI W RELACJI KLIENT-BIURO MAKLERSKIE

ZASADY WYZNACZANIA DEPOZYTÓW ZABEZPIECZAJĄCYCH PO WPROWADZENIU DO OBROTU OPCJI W RELACJI KLIENT-BIURO MAKLERSKIE Zasady wyznazana depozytów zabezpezaąyh po wprowadzenu do obrotu op w rela lent-buro malerse ZAADY WYZNACZANIA DEPOZYTÓW ZABEZPIECZAJĄCYCH PO WPROWADZENIU DO OBROTU OPCJI W RELACJI KLIENT-BIURO MAKLERKIE

Bardziej szczegółowo

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska Sieci neuronowe w Statistica Agnieszka Nowak - Brzezioska Podstawowym elementem składowym sztucznej sieci neuronowej jest element przetwarzający neuron. Schemat działania neuronu: x1 x2 w1 w2 Dendrites

Bardziej szczegółowo

Sieci neuronowe w Statistica

Sieci neuronowe w Statistica http://usnet.us.edu.pl/uslugi-sieciowe/oprogramowanie-w-usk-usnet/oprogramowaniestatystyczne/ Sieci neuronowe w Statistica Agnieszka Nowak - Brzezińska Podstawowym elementem składowym sztucznej sieci neuronowej

Bardziej szczegółowo

KINEMATYKA MANIPULATORÓW

KINEMATYKA MANIPULATORÓW KIEMK MIULOÓW WOWDEIE. Manpulator obot można podzelć na zęść terująą mehanzną. Część mehanzna nazywana jet manpulatorem. punktu wdzena Mehank ta zęść jet najbardzej ntereująa. Manpulator zaadnzo można

Bardziej szczegółowo

Problemy jednoczesnego testowania wielu hipotez statystycznych i ich zastosowania w analizie mikromacierzy DNA

Problemy jednoczesnego testowania wielu hipotez statystycznych i ich zastosowania w analizie mikromacierzy DNA Problemy jednoczesnego testowana welu hpotez statystycznych ch zastosowana w analze mkromacerzy DNA Konrad Furmańczyk Katedra Zastosowań Matematyk SGGW Plan referatu Testowane w analze mkromacerzy DNA

Bardziej szczegółowo

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań Jan Karwowski Wydział Matematyki i Nauk Informacyjnych PW

Bardziej szczegółowo

Grupowanie dokumentów XML ze względu na ich strukturę, z wykorzystaniem XQuery

Grupowanie dokumentów XML ze względu na ich strukturę, z wykorzystaniem XQuery Rozdzał 44 Grupowane dokumentów XML ze względu na ch strukturę, z wykorzystanem XQuery Streszczene. Popularność ęzyka XML oraz ego powszechne użyce spowodowały rozwó systemów przechowuących dokumenty XML.

Bardziej szczegółowo

Zasady wyznaczania minimalnej wartości środków pobieranych przez uczestników od osób zlecających zawarcie transakcji na rynku terminowym

Zasady wyznaczania minimalnej wartości środków pobieranych przez uczestników od osób zlecających zawarcie transakcji na rynku terminowym Załązn nr 3 Do zzegółowyh Zasad rowadzena Rozlzeń Transa rzez KDW_CC Zasady wyznazana mnmalne wartoś środów oberanyh rzez uzestnów od osób zleaąyh zaware transa na rynu termnowym 1. Metodologa wyznazana

Bardziej szczegółowo

Wykład 2: Uczenie nadzorowane sieci neuronowych - I

Wykład 2: Uczenie nadzorowane sieci neuronowych - I Wykład 2: Uczene nadzorowane sec neuronowych - I Algorytmy uczena sec neuronowych Na sposób dzałana sec ma wpływ e topologa oraz funkconowane poszczególnych neuronów. Z reguły topologę sec uznae sę za

Bardziej szczegółowo

Zastosowania sieci neuronowych

Zastosowania sieci neuronowych Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką

Bardziej szczegółowo

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym Jan Karwowski Wydział Matematyki i Nauk Informacyjnych PW 17 XII 2013 Jan Karwowski

Bardziej szczegółowo

Wykład 2: Uczenie nadzorowane sieci neuronowych - I

Wykład 2: Uczenie nadzorowane sieci neuronowych - I Wykład 2: Uczene nadzorowane sec neuronowych - I Algorytmy uczena sec neuronowych Na sposób dzałana sec ma wpływ e topologa oraz funkconowane poszczególnych neuronów. Z reguły topologę sec uznae sę za

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA WYKŁAD 8. SZTUCZNE SIECI NEURONOWE INNE ARCHITEKTURY Częstochowa 24 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska SIEĆ O RADIALNYCH FUNKCJACH BAZOWYCH

Bardziej szczegółowo

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA WYKŁAD 15. ALGORYTMY GENETYCZNE Częstochowa 014 Dr hab. nż. Grzegorz Dudek Wydzał Elektryczny Poltechnka Częstochowska TERMINOLOGIA allele wartośc, waranty genów, chromosom - (naczej

Bardziej szczegółowo

Metoda prądów obwodowych

Metoda prądów obwodowych Metod prądów owodowyh Zmenmy wszystke rzezywste źródł prądowe n npęowe, Tworzymy kłd równń lnowyh opsjąyh poszzególne owody. Dowolną seć lnową skłdjąą sę z elementów skponyh możn opsć z pomoą kłd równń

Bardziej szczegółowo

Sztuczne sieci neuronowe

Sztuczne sieci neuronowe Sztuczne sec neuronowe Jerzy Stefanowsk Plan wykładu 1. Wprowadzene 2. Model sztucznego neuronu. 3. Topologe sec neuronowych 4. Reguły uczena sec neuronowych. 5. Klasyfkaca sec neuronowych. 6. Sec warstwowe

Bardziej szczegółowo

MODELOWANIE NEURONALNE ROZWOJU SYSTEMU ELEKTROENERGETYCZNEGO. CZĘŚĆ 2. MODELE SYSTEMU IEEE RTS

MODELOWANIE NEURONALNE ROZWOJU SYSTEMU ELEKTROENERGETYCZNEGO. CZĘŚĆ 2. MODELE SYSTEMU IEEE RTS POZNAN UNIVE RSITY OF TE CHNOLOGY ACADE MIC JOURNALS No 82 Electrical Engineering 2015 Jerzy TCHÓRZEWSKI* Maciej PYTEL ** MODELOWANIE NEURONALNE ROZWOJU SYSTEMU ELEKTROENERGETYCZNEGO. CZĘŚĆ 2. MODELE SYSTEMU

Bardziej szczegółowo

Celem tych ćwiczeń jest zapoznanie się z klasyfikacją za pomocą sieci neuronowych.

Celem tych ćwiczeń jest zapoznanie się z klasyfikacją za pomocą sieci neuronowych. Spis treści 1 Wstęp 1.1 Importy 2 Zbiór uczący 3 Klasyfikacja 3.1 Rysunki dodatkowe 4 Polecenia dodatkowe Wstęp Celem tych ćwiczeń jest zapoznanie się z klasyfikacją za pomocą sieci neuronowych. Importy

Bardziej szczegółowo

Klasyfkator lnowy Wstęp Klasyfkator lnowy jest najprostszym możlwym klasyfkatorem. Zakłada on lnową separację lnowy podzał dwóch klas mędzy sobą. Przedstawa to ponższy rysunek: 5 4 3 1 0-1 - -3-4 -5-5

Bardziej szczegółowo

Przykład optymalizacji struktury sztucznej sieci neuronowej metodą algorytmów genetycznych

Przykład optymalizacji struktury sztucznej sieci neuronowej metodą algorytmów genetycznych BIULETYN INSTYTUTU AUTOMATYKI I ROBOTYKI NR 23, 26 Przykład optymalizacji struktury sztucznej sieci neuronowej metodą algorytmów genetycznych Leszek Grad Zakład Automatyki, Instytut Teleinfo rmatyki i

Bardziej szczegółowo

sieci jednowarstwowe w MATLABie LABORKA Piotr Ciskowski

sieci jednowarstwowe w MATLABie LABORKA Piotr Ciskowski sieci jednowarstwowe w ATLABie LABORKA Piotr Ciskowski trzy funkcje do obsługi sieci jednowarstwowej : init1.m - tworzy sieć, inicjuje wagi (losowo) dzialaj1.m symuluje działanie sieci (na pojedynczym

Bardziej szczegółowo

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Trening jednokierunkowych sieci neuronowych wykład 2. dr inż. PawełŻwan Katedra Systemów Multimedialnych Politechnika Gdańska

Bardziej szczegółowo

Projekt Sieci neuronowe

Projekt Sieci neuronowe Projekt Sieci neuronowe Chmielecka Katarzyna Gr. 9 IiE 1. Problem i dane Sieć neuronowa miała za zadanie nauczyć się klasyfikować wnioski kredytowe. W projekcie wykorzystano dane pochodzące z 110 wniosków

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3 Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3 Andrzej Rutkowski, Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-11-05 Projekt

Bardziej szczegółowo

Streszczenie. Słowa kluczowe: modele neuronowe, parametry ciągników rolniczych

Streszczenie. Słowa kluczowe: modele neuronowe, parametry ciągników rolniczych InŜynieria Rolnicza 11/2006 Sławomir Francik Katedra InŜynierii Mechanicznej i Agrofizyki Akademia Rolnicza w Krakowie METODA PROGNOZOWANIA WARTOŚCI PARAMETRÓW TECHNICZNYCH NOWOCZESNYCH MASZYN ROLNICZYCH

Bardziej szczegółowo

Laboratorium ochrony danych

Laboratorium ochrony danych Laboratorum ochrony danych Ćwczene nr Temat ćwczena: Cała skończone rozszerzone Cel dydaktyczny: Opanowane programowej metody konstruowana cał skończonych rozszerzonych GF(pm), poznane ch własnośc oraz

Bardziej szczegółowo

Uczenie sieci typu MLP

Uczenie sieci typu MLP Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik

Bardziej szczegółowo

Metody Sztucznej Inteligencji II

Metody Sztucznej Inteligencji II 17 marca 2013 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką, która jest w stanie odbierać i przekazywać sygnały elektryczne. Neuron działanie Jeżeli wartość sygnału

Bardziej szczegółowo

Komitety sieci konwolucyjnych w zagadnieniu klasyfikacji przy jednoczesnym zaszumieniu danych wejściowych oraz etykiet klas. Stanisław Kaźmierczak

Komitety sieci konwolucyjnych w zagadnieniu klasyfikacji przy jednoczesnym zaszumieniu danych wejściowych oraz etykiet klas. Stanisław Kaźmierczak Komitety sieci konwolucyjnych w zagadnieniu klasyfikacji przy jednoczesnym zaszumieniu danych wejściowych oraz etykiet klas Stanisław Kaźmierczak Szum i jego rodzaje Źródła szumu Model Architektura sieci

Bardziej szczegółowo

Krzysztof Borowski Zastosowanie metody wideł cenowych w analizie technicznej

Krzysztof Borowski Zastosowanie metody wideł cenowych w analizie technicznej Krzysztof Borowsk Zastosowane metody wdeł cenowych w analze technczne Wprowadzene Metoda wdeł cenowych została perwszy raz ogłoszona przez Alana Andrewsa 1 w roku 1960. Trzy lne wchodzące w skład metody

Bardziej szczegółowo

Podstawy Sztucznej Inteligencji (PSZT)

Podstawy Sztucznej Inteligencji (PSZT) Podstawy Sztucznej Inteligencji (PSZT) Paweł Wawrzyński Uczenie maszynowe Sztuczne sieci neuronowe Plan na dziś Uczenie maszynowe Problem aproksymacji funkcji Sieci neuronowe PSZT, zima 2013, wykład 12

Bardziej szczegółowo

Algorytmy sztucznej inteligencji

Algorytmy sztucznej inteligencji Algorytmy sztucznej inteligencji Dynamiczne sieci neuronowe 1 Zapis macierzowy sieci neuronowych Poniżej omówione zostaną części składowe sieci neuronowych i metoda ich zapisu za pomocą macierzy. Obliczenia

Bardziej szczegółowo

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia

Bardziej szczegółowo

Analiza rodzajów skutków i krytyczności uszkodzeń FMECA/FMEA według MIL STD - 1629A

Analiza rodzajów skutków i krytyczności uszkodzeń FMECA/FMEA według MIL STD - 1629A Analza rodzajów skutków krytycznośc uszkodzeń FMECA/FMEA według MIL STD - 629A Celem analzy krytycznośc jest szeregowane potencjalnych rodzajów uszkodzeń zdentyfkowanych zgodne z zasadam FMEA na podstawe

Bardziej szczegółowo

Testowanie hipotez statystycznych

Testowanie hipotez statystycznych 9 października 2008 ...czyli definicje na rozgrzewkę n-elementowa próba losowa - wektor n zmiennych losowych (X 1,..., X n ); intuicyjnie: wynik n eksperymentów realizacja próby (X 1,..., X n ) w ω Ω :

Bardziej szczegółowo

V. WPROWADZENIE DO PRZESTRZENI FUNKCYJNYCH

V. WPROWADZENIE DO PRZESTRZENI FUNKCYJNYCH Krs na Stdach Doktoranckch Poltechnk Wrocławskej wersja: lty 007 34 V. WPROWADZENIE DO PRZESTRZENI FUNKCYJNYCH. Zbór np. lczb rzeczywstych a, b elementy zbor A a A b A, podzbór B zbor A : B A, sma zborów

Bardziej szczegółowo

MATLAB Neural Network Toolbox przegląd

MATLAB Neural Network Toolbox przegląd MATLAB Neural Network Toolbox przegląd WYKŁAD Piotr Ciskowski Neural Network Toolbox: Neural Network Toolbox - zastosowania: przykłady zastosowań sieci neuronowych: The 1988 DARPA Neural Network Study

Bardziej szczegółowo

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna. Sieci neuronowe model konekcjonistyczny Plan wykładu Mózg ludzki a komputer Modele konekcjonistycze Perceptron Sieć neuronowa Uczenie sieci Sieci Hopfielda Mózg ludzki a komputer Twój mózg to 00 000 000

Bardziej szczegółowo

Badania sondażowe. Braki danych Konstrukcja wag. Agnieszka Zięba. Zakład Badań Marketingowych Instytut Statystyki i Demografii Szkoła Główna Handlowa

Badania sondażowe. Braki danych Konstrukcja wag. Agnieszka Zięba. Zakład Badań Marketingowych Instytut Statystyki i Demografii Szkoła Główna Handlowa Badana sondażowe Brak danych Konstrukcja wag Agneszka Zęba Zakład Badań Marketngowych Instytut Statystyk Demograf Szkoła Główna Handlowa 1 Błędy braku odpowedz Całkowty brak odpowedz (UNIT nonresponse)

Bardziej szczegółowo

wiedzy Sieci neuronowe (c.d.)

wiedzy Sieci neuronowe (c.d.) Metody detekci uszkodzeń oparte na wiedzy Sieci neuronowe (c.d.) Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 8 Metody detekci uszkodzeń oparte na wiedzy Wprowadzenie

Bardziej szczegółowo

I PRACOWNIA FIZYCZNA, UMK TORUŃ WYZNACZANIE MOMENTU BEZWŁADNOŚCI BRYŁY SZTYWNEJ ZA POMOCĄ WAHADŁA TORSYJNEGO

I PRACOWNIA FIZYCZNA, UMK TORUŃ WYZNACZANIE MOMENTU BEZWŁADNOŚCI BRYŁY SZTYWNEJ ZA POMOCĄ WAHADŁA TORSYJNEGO PACOWNA FZYCZNA, UMK TOUŃ nstrukja do ćwzena nr 9 * WYZNACZANE MOMENTU BEZWŁANOŚC BYŁY SZTYWNEJ ZA POMOCĄ WAHAŁA TOSYJNEGO. Cel ćwzena Wyznazene momentu bezwładnoś za pomoą wahadła torsyjnego (metoda dynamzna).

Bardziej szczegółowo

ZASTOSOWANIE SIECI NEURONOWYCH DO OPTYMALIZACJI WARUNKÓW OBRÓBKI CIEPLNEJ STOPÓW Mg-Al

ZASTOSOWANIE SIECI NEURONOWYCH DO OPTYMALIZACJI WARUNKÓW OBRÓBKI CIEPLNEJ STOPÓW Mg-Al LESZEK A. DOBRZAŃSKI, TOMASZ TAŃSKI ZASTOSOWANIE SIECI NEURONOWYCH DO OPTYMALIZACJI WARUNKÓW OBRÓBKI CIEPLNEJ STOPÓW Mg-Al APPLICATION OF NEURAL NETWORKS FOR OPTIMISATION OF Mg-Al ALLOYS HEAT TREATMENT

Bardziej szczegółowo

Ś Ń ź Ś ź Ś Ś Ś Ś Ś Ś Ś Ą Ś Ż ż ż Ż ć ć ź ź ÓĆ ć Ż Ą ć Ż ż ć Ą Ł Ś Ń ć Ś Ą Ą ż Ż Ą ź Ą ź Ą ż Ś Ń Ł Ś Ś Ó Ą ż ż Ś Ń Ł Ś ż ź ź Ą ć ż ż ć ć ż ć ż Ą ż Ł ż ć ż ż Ż ż ż ż ć Ąć ż ż ż Ż Ż ż ż ć ż ć ż ż ż Ż ż ż

Bardziej szczegółowo

Zaawansowane metody numeryczne Komputerowa analiza zagadnień różniczkowych 1. Układy równań liniowych

Zaawansowane metody numeryczne Komputerowa analiza zagadnień różniczkowych 1. Układy równań liniowych Zaawansowane metody numeryczne Komputerowa analza zagadneń różnczkowych 1. Układy równań lnowych P. F. Góra http://th-www.f.uj.edu.pl/zfs/gora/ semestr letn 2006/07 Podstawowe fakty Równane Ax = b, x,

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA WYKŁAD 18. ALGORYTMY EWOLUCYJNE - ZASTOSOWANIA Częstochowa 2014 Dr hab. nż. Grzegorz Dudek Wydzał Elektryczny Poltechnka Częstochowska ZADANIE ZAŁADUNKU Zadane załadunku plecakowe

Bardziej szczegółowo

Seminarium IO. Zastosowanie wielorojowej metody PSO w Dynamic Vehicle Routing Problem. Michał Okulewicz

Seminarium IO. Zastosowanie wielorojowej metody PSO w Dynamic Vehicle Routing Problem. Michał Okulewicz Seminarium IO Zastosowanie wielorojowej metody PSO w Dynamic Vehicle Routing Problem Michał Okulewicz 26.02.2013 Plan prezentacji Przypomnienie Problem DVRP Algorytm PSO Podejścia DAPSO, MAPSO 2PSO, 2MPSO

Bardziej szczegółowo

Ż ż Ł ż ż ż Ż Ś ż ż ż Ł Ż Ż ć ż Ż Ż Ż Ń Ż Ź ż Ź Ź ż Ż ż ż Ż Ł Ż Ł Ż ż Ż ż Ż Ż Ń Ą Ż Ń Ż Ń ć ż Ż ź Ś ć Ł Ł Ź Ż Ż ż Ł ż Ż Ł Ż Ł ź ć ż Ż Ż ż ż Ó ż Ł Ż ć Ż Ż Ę Ż Ż Ż ż Ż ż ż Ś ż Ż ż ż ź Ż Ń ć Ż ż Ż Ż ż ż ż

Bardziej szczegółowo

Ś Ł Ą Ś Ś ź Ś ń ż ż Ó ż ż Ś Ł ż ń ń ń ż ń Ś ń ć ŚĘ Ó Ł Ę Ł Ś Ę Ę ń ń ń ń ń Ź ń ń ń ń ń ż ń ń ń ń ń Ę ż ż ć Ść ń ń ż Ń ż ż ń ń Ś Ą ń Ś ń ń ż Ó ż Ź ń ż ń Ś Ń Ó ż Ł ż Ą ź ź Ś Ł ć Ś ć ż ź ż ć ć Ę Ó Ś Ó ż ż

Bardziej szczegółowo

Ł Ł Ś Ę ź ń ź ź Ś Ę Ę Ś Ą Ś Ę Ż Ł ń Ę Ś ć ć ń ć ń ń ń ź ń Ę ź ń ń ń ź ź Ś ź ź ć ń ń ń ń Ś ć Ś ń ń Ś ź ń Ę ń Ś ź ź ź ź ź Ę Ę Ę Ś ń Ś ć ń ń ń ń ń ń Ę ń ń ń ń ć ń ń ń ń ć ń Ś ć Ł ń ń ń ć ń ć ź ń ź ć ń ń ć

Bardziej szczegółowo

Ł Ł Ś ź ń ź ź ź Ś Ł Ę Ę Ś ż Ś ń Ą Ś Ą Ł ż ż ń ż ć ż ż ż ź ż ć ź Ę Ę ń ć ż Ł ń ż ż ż Ś ż Ś ż ż ż ż ż ż ż ń ń ż ż ż ć ż ń ż ń ź ż ć ż ż ć ń ż Ę Ę ć ń Ę ż ż ń ń ź Ę ź ż ń ż ń ź ż ż ż ń ż ż ż ż ż ż ż ż ń ń

Bardziej szczegółowo

Elementy inteligencji obliczeniowej

Elementy inteligencji obliczeniowej Elementy inteligencji obliczeniowej Paweł Liskowski Institute of Computing Science, Poznań University of Technology 9 October 2018 1 / 19 Perceptron Perceptron (Rosenblatt, 1957) to najprostsza forma sztucznego

Bardziej szczegółowo

OBLICZENIA ZA POMOCĄ PROTEIN

OBLICZENIA ZA POMOCĄ PROTEIN OBLICZENIA ZA POMOCĄ PROTEIN KODOWANIE I PRZETWARZANIE INFORMACJI W ORGANIZMACH Informacja genetyczna jest przechowywana w DNA i RNA w postaci liniowych sekwencji nukleotydów W genach jest przemieniana

Bardziej szczegółowo

Cyfrowe przetwarzanie i kompresja danych

Cyfrowe przetwarzanie i kompresja danych Cyfrowe przetwarzane kompresja danyh dr nż.. Wojeh Zają Wykład 4. Dyskretna transformata kosnusowa Shemat przetwarzana danyh w systeme yfrowym Cyfryzaja danyh Dekorelaja kwantyzaja ompresja FEC + przeplot

Bardziej szczegółowo

DEKOMPOZYCJA HIERARCHICZNEJ STRUKTURY SZTUCZNEJ SIECI NEURONOWEJ I ALGORYTM KOORDYNACJI

DEKOMPOZYCJA HIERARCHICZNEJ STRUKTURY SZTUCZNEJ SIECI NEURONOWEJ I ALGORYTM KOORDYNACJI POZNAN UNIVE RSITY OF TE CHNOLOGY ACADE MIC JOURNALS No 80 Electrical Engineering 2014 Stanisław PŁACZEK* DEKOMPOZYCJA HIERARCHICZNEJ STRUKTURY SZTUCZNEJ SIECI NEURONOWEJ I ALGORYTM KOORDYNACJI W artykule

Bardziej szczegółowo

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE SIECI NEURONOWE Przedmiotem laboratorium jest stworzenie algorytmu rozpoznawania zwierząt z zastosowaniem sieci neuronowych w oparciu o 5 kryteriów: ile zwierzę ma nóg, czy żyje w wodzie, czy umie latać,

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-10-15 Projekt

Bardziej szczegółowo

SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe

SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe JOANNA GRABSKA-CHRZĄSTOWSKA Wykłady w dużej mierze przygotowane w oparciu o materiały i pomysły PROF. RYSZARDA TADEUSIEWICZA BUDOWA RZECZYWISTEGO NEURONU

Bardziej szczegółowo

Podstawy sztucznej inteligencji

Podstawy sztucznej inteligencji wykład 5 Sztuczne sieci neuronowe (SSN) 8 grudnia 2011 Plan wykładu 1 Biologiczne wzorce sztucznej sieci neuronowej 2 3 4 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką,

Bardziej szczegółowo

Sieć kątowa metoda spostrzeżeń pośredniczących. Układ równań obserwacyjnych

Sieć kątowa metoda spostrzeżeń pośredniczących. Układ równań obserwacyjnych Seć kątowa etoda spostrzeżeń pośrednząyh Układ równań obserwayjnyh rzyrosty współrzędnyh X = X X X X = X X Y = Y Y X Y = Y Y Długość odnka X ' ' ' ' x y Współzynnk kerunkowe x y * B * x y x y gdze - odpowedn

Bardziej szczegółowo

S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor

S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor S O M SELF-ORGANIZING MAPS Przemysław Szczepańczyk Łukasz Myszor Podstawy teoretyczne Map Samoorganizujących się stworzył prof. Teuvo Kohonen (1982 r.). SOM wywodzi się ze sztucznych sieci neuronowych.

Bardziej szczegółowo

ĆWICZENIE 5: Sztuczne sieci neuronowe

ĆWICZENIE 5: Sztuczne sieci neuronowe Instytut Mechaniki i Inżynierii Obliczeniowej Wydział Mechaniczny Technologiczny, Politechnika Śląska www.imio.polsl.pl METODY HEURYSTYCZNE ĆWICZENIE 5: Sztuczne sieci neuronowe opracował: dr inż. Witold

Bardziej szczegółowo

ALGORYTMY SZTUCZNEJ INTELIGENCJI

ALGORYTMY SZTUCZNEJ INTELIGENCJI ALGORYTMY SZTUCZNEJ INTELIGENCJI Sieci neuronowe 06.12.2014 Krzysztof Salamon 1 Wstęp Sprawozdanie to dotyczy ćwiczeń z zakresu sieci neuronowych realizowanym na przedmiocie: Algorytmy Sztucznej Inteligencji.

Bardziej szczegółowo

STANDARDOWE TECHNIKI KOMPRESJI SYGNAŁÓW

STANDARDOWE TECHNIKI KOMPRESJI SYGNAŁÓW STANDARDOWE TECHNIKI KOMPRESJI SYGNAŁÓW Źródło Kompresja Kanał transmsj sek wdeo 60 Mbt 2 mn muzyk (44 00 próbek/sek, 6 btów/próbkę) 84 Mbt Dekompresja Odborca. Metody bezstratne 2. Metody stratne 2 Kodowane

Bardziej szczegółowo

MIĘDZYNARODOWE UNORMOWANIA WYRAśANIA ANIA NIEPEWNOŚCI POMIAROWYCH

MIĘDZYNARODOWE UNORMOWANIA WYRAśANIA ANIA NIEPEWNOŚCI POMIAROWYCH MIĘDZYNARODOWE UNORMOWANIA WYRAśANIA ANIA NIEPEWNOŚCI POMIAROWYCH Adam Mchczyńsk W roku 995 grupa nstytucj mędzynarodowych: ISO Internatonal Organzaton for Standardzaton (Mędzynarodowa Organzacja Normalzacyjna),

Bardziej szczegółowo

Uczenie sieci radialnych (RBF)

Uczenie sieci radialnych (RBF) Uczenie sieci radialnych (RBF) Budowa sieci radialnej Lokalne odwzorowanie przestrzeni wokół neuronu MLP RBF Budowa sieci radialnych Zawsze jedna warstwa ukryta Budowa neuronu Neuron radialny powinien

Bardziej szczegółowo

Uczenie sieci neuronowych i bayesowskich

Uczenie sieci neuronowych i bayesowskich Wstęp do metod sztucznej inteligencji www.mat.uni.torun.pl/~piersaj 2009-01-22 Co to jest neuron? Komputer, a mózg komputer mózg Jednostki obliczeniowe 1-4 CPU 10 11 neuronów Pojemność 10 9 b RAM, 10 10

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-10-11 1 Modelowanie funkcji logicznych

Bardziej szczegółowo

Problem eliminacji nieprzystających elementów w zadaniu rozpoznania wzorca Marcin Luckner

Problem eliminacji nieprzystających elementów w zadaniu rozpoznania wzorca Marcin Luckner Problem eliminacji nieprzystających elementów w zadaniu rozpoznania wzorca Marcin Luckner Wydział Matematyki i Nauk Informacyjnych Politechnika Warszawska Elementy nieprzystające Definicja odrzucania Klasyfikacja

Bardziej szczegółowo

Inteligentne systemy przeciw atakom sieciowym

Inteligentne systemy przeciw atakom sieciowym Inteligentne systemy przeciw atakom sieciowym wykład Sztuczne sieci neuronowe (SSN) Joanna Kołodziejczyk 2016 Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 1 / 36 Biologiczne

Bardziej szczegółowo

Stanisław Cichocki. Natalia Nehrebecka. Wykład 7

Stanisław Cichocki. Natalia Nehrebecka. Wykład 7 Stansław Cchock Natala Nehrebecka Wykład 7 . Zmenne dyskretne Kontrasty: efekty progowe, kontrasty w odchylenach Interakcje. Przyblżane model nelnowych Stosowane do zmennych dyskretnych o uporządkowanych

Bardziej szczegółowo

RÓWNOWAGA STACKELBERGA W GRACH SEKWENCYJNYCH

RÓWNOWAGA STACKELBERGA W GRACH SEKWENCYJNYCH Stansław KOWALIK e-mal: skowalk@wsb.edu.pl Wyższa Szkoła Bznesu Dąbrowa Górncza RÓWNOWAGA STACKELBERGA W GRACH SEKWENCYJNYCH Streszczene Praca dotyczy nekooperacynych sekwencynych ger dwuosobowych o sume

Bardziej szczegółowo

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga; Sieci Hopfielda Najprostsze modele sieci z rekurencją sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga; Modele bardziej złoŝone: RTRN (Real Time Recurrent Network), przetwarzająca sygnały w czasie

Bardziej szczegółowo

USING A PROBABILISTIC NEURAL NETWORK AND THE NEAREST NEIGHBOUR METHOD TO IDENTIFY SHIP RADIOSTATIONS

USING A PROBABILISTIC NEURAL NETWORK AND THE NEAREST NEIGHBOUR METHOD TO IDENTIFY SHIP RADIOSTATIONS Tomasz PRACZYK identyfikacja obiektów UśYCIE SIECI PROBABILISTYCZNEJ ORAZ METODY NAJBLIśSZEGO SĄSIADA DO IDENTYFIKACJI OBCYCH RADIOSTACJI OKRĘTOWYCH Praca przedstawia zastosowanie probabilistycznej sieci

Bardziej szczegółowo

Rozdział 1 Sztuczne sieci neuronowe. Materiały do zajęć dydaktycznych - na podstawie dokumentacji programu Matlab opracował Dariusz Grzesiak

Rozdział 1 Sztuczne sieci neuronowe. Materiały do zajęć dydaktycznych - na podstawie dokumentacji programu Matlab opracował Dariusz Grzesiak 2 Rozdział 1 Sztuczne sieci neuronowe. 3 Sztuczna sieć neuronowa jest zbiorem prostych elementów pracujących równolegle, których zasada działania inspirowana jest biologicznym systemem nerwowym. Sztuczną

Bardziej szczegółowo

Algorytmy MCMC (Markowowskie Monte Carlo) dla skokowych procesów Markowa

Algorytmy MCMC (Markowowskie Monte Carlo) dla skokowych procesów Markowa Algorytmy MCMC (Markowowskie Monte Carlo) dla skokowych procesów Markowa Wojciech Niemiro 1 Uniwersytet Warszawski i UMK Toruń XXX lat IMSM, Warszawa, kwiecień 2017 1 Wspólne prace z Błażejem Miasojedowem,

Bardziej szczegółowo

Analiza danych OGÓLNY SCHEMAT. http://zajecia.jakubw.pl/ Dane treningowe (znana decyzja) Klasyfikator. Dane testowe (znana decyzja)

Analiza danych OGÓLNY SCHEMAT. http://zajecia.jakubw.pl/ Dane treningowe (znana decyzja) Klasyfikator. Dane testowe (znana decyzja) Analza danych Dane trenngowe testowe. Algorytm k najblższych sąsadów. Jakub Wróblewsk jakubw@pjwstk.edu.pl http://zajeca.jakubw.pl/ OGÓLNY SCHEMAT Mamy dany zbór danych podzelony na klasy decyzyjne, oraz

Bardziej szczegółowo

( ) Elementy rachunku prawdopodobieństwa. f( x) 1 F (x) f(x) - gęstość rozkładu prawdopodobieństwa X f( x) - dystrybuanta rozkładu.

( ) Elementy rachunku prawdopodobieństwa. f( x) 1 F (x) f(x) - gęstość rozkładu prawdopodobieństwa X f( x) - dystrybuanta rozkładu. Elementy rchunku prwdopodoeństw f 0 f() - gęstość rozkłdu prwdopodoeństw X f d P< < = f( d ) F = f( tdt ) - dystryunt rozkłdu E( X) = tf( t) dt - wrtość średn D ( X) = E( X ) E( X) - wrncj = f () F ()

Bardziej szczegółowo

SZACOWANIE NIEPEWNOŚCI POMIARU METODĄ PROPAGACJI ROZKŁADÓW

SZACOWANIE NIEPEWNOŚCI POMIARU METODĄ PROPAGACJI ROZKŁADÓW SZACOWANIE NIEPEWNOŚCI POMIARU METODĄ PROPAGACJI ROZKŁADÓW Stefan WÓJTOWICZ, Katarzyna BIERNAT ZAKŁAD METROLOGII I BADAŃ NIENISZCZĄCYCH INSTYTUT ELEKTROTECHNIKI ul. Pożaryskego 8, 04-703 Warszawa tel.

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2012-10-10 Projekt pn. Wzmocnienie

Bardziej szczegółowo

Metoda ewolucyjnego doboru współczynników funkcji oceniającej w antywarcabach

Metoda ewolucyjnego doboru współczynników funkcji oceniającej w antywarcabach Metoda ewolucyjnego doboru współczynników funkcji oceniającej w antywarcabach Promotor: dr hab. Jacek Mańdziuk Autor: Jarosław Budzianowski Metoda ewolucyjnego doboru współczynników funkcji oceniajacej

Bardziej szczegółowo

WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice)

WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice) WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO Stanisław Kowalik (Poland, Gliwice) 1. Wprowadzenie Wstrząsy podziemne i tąpania występujące w kopalniach

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 8 Uczenie nienadzorowane.

Wstęp do sieci neuronowych, wykład 8 Uczenie nienadzorowane. Wstęp do sieci neuronowych, wykład 8. M. Czoków, J. Piersa, A. Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 1-811-6 Projekt pn. Wzmocnienie potencjału dydaktycznego

Bardziej szczegółowo

PODSTAWY BIOINFORMATYKI 6 BAZA DANYCH NCBI - II

PODSTAWY BIOINFORMATYKI 6 BAZA DANYCH NCBI - II PODSTAWY BIOINFORMATYKI 6 BAZA DANYCH NCBI - II BAZA DANYCH NCBI 1. NCBI 2. Dane gromadzone przez NCBI 3. Przegląd baz danych NCBI: Publikacje naukowe Projekty analizy genomów OMIM: fenotypy człowieka

Bardziej szczegółowo

Algorytm do rozpoznawania człowieka na podstawie dynamiki użycia klawiatury. Paweł Kobojek, prof. dr hab. inż. Khalid Saeed

Algorytm do rozpoznawania człowieka na podstawie dynamiki użycia klawiatury. Paweł Kobojek, prof. dr hab. inż. Khalid Saeed Algorytm do rozpoznawania człowieka na podstawie dynamiki użycia klawiatury Paweł Kobojek, prof. dr hab. inż. Khalid Saeed Zakres pracy Przegląd stanu wiedzy w dziedzinie biometrii, ze szczególnym naciskiem

Bardziej szczegółowo

Prąd elektryczny U R I =

Prąd elektryczny U R I = Prąd elektryczny porządkowany ruch ładunków elektrycznych (nośnków prądu). Do scharakteryzowana welkośc prądu służy natężene prądu określające welkość ładunku przepływającego przez poprzeczny przekrój

Bardziej szczegółowo

Analiza metod wykrywania przekazów steganograficznych. Magdalena Pejas Wydział EiTI PW magdap7@gazeta.pl

Analiza metod wykrywania przekazów steganograficznych. Magdalena Pejas Wydział EiTI PW magdap7@gazeta.pl Analiza metod wykrywania przekazów steganograficznych Magdalena Pejas Wydział EiTI PW magdap7@gazeta.pl Plan prezentacji Wprowadzenie Cel pracy Tezy pracy Koncepcja systemu Typy i wyniki testów Optymalizacja

Bardziej szczegółowo

KLASYFIKACJA. Słownik języka polskiego

KLASYFIKACJA. Słownik języka polskiego KLASYFIKACJA KLASYFIKACJA Słownik języka polskiego Klasyfikacja systematyczny podział przedmiotów lub zjawisk na klasy, działy, poddziały, wykonywany według określonej zasady Klasyfikacja polega na przyporządkowaniu

Bardziej szczegółowo

ZASADY podziału dotacji na badania własne na Uniwersytecie Zielonogórskim w 2005 roku

ZASADY podziału dotacji na badania własne na Uniwersytecie Zielonogórskim w 2005 roku Załącznk do uchwały nr 282 Senatu UZ z dna 9 marca 2005 r. w sprawe podzału dotacj na badana własne na rok 2005 ZASADY podzału dotacj na badana własne na Unwersytece Zelonogórskm w 2005 roku Środk na Badana

Bardziej szczegółowo

Sztuczne sieci neuronowe w zastosowaniu do modelowania fazy wznoszenia samolotu

Sztuczne sieci neuronowe w zastosowaniu do modelowania fazy wznoszenia samolotu Paulina Stańczyk 1, Anna Stelmach 2 Wydział Transportu Politechniki Warszawskiej Sztuczne sieci neuronowe w zastosowaniu do modelowania fazy wznoszenia samolotu 1. WPROWADZENIE W ostatnich latach na świecie,

Bardziej szczegółowo

Podstawy teorii falek (Wavelets)

Podstawy teorii falek (Wavelets) Podstawy teor falek (Wavelets) Ψ(). Transformaca Haara (97).. Przykład pewne metody zapsu obrazu Transformaca Haara Przykład zapsu obrazu -D Podstawy matematyczne transformac Algorytmy rozkładana funkc

Bardziej szczegółowo

Sztuczne sieci neuronowe

Sztuczne sieci neuronowe Sztuczne sieci neuronowe Bartłomiej Goral ETI 9.1 INTELIGENCJA Inteligencja naturalna i sztuczna. Czy istnieje potrzeba poznania inteligencji naturalnej przed przystąpieniem do projektowania układów sztucznej

Bardziej szczegółowo

Deep Learning na przykładzie Deep Belief Networks

Deep Learning na przykładzie Deep Belief Networks Deep Learning na przykładzie Deep Belief Networks Jan Karwowski Zakład Sztucznej Inteligencji i Metod Obliczeniowych Wydział Matematyki i Nauk Informacyjnych PW 20 V 2014 Jan Karwowski (MiNI) Deep Learning

Bardziej szczegółowo