Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311
|
|
- Sebastian Wrona
- 7 lat temu
- Przeglądów:
Transkrypt
1 Sztuczne sieci neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyi,. 311
2 Wyład 3 PLAN: - Reetitio (brevis) - Algorytmy mięiej selecji: algorytmy ewolucyjne symulowane wyżarzanie -Zastosowanie sieci neuronowych do lasyfiacji statystycznej: statystyczny model lasyfiacji arosymacja a osteriori w sieciach MLP robabilistyczne sieci neuronowe - Oowieść o angurach
3 Reetitio W asecie architetury: zajmowaliśmy się tylo sieciami tyu feed-forward W asecie działania ojedynczego neuronu: rozważaliśmy tylo neurony sigmoidalne oraz radialne
4 Reetitio (cd.) W asecie uczenia: szczegółowo rzedstawiono tylo gradientowe algorytmy uczenia nadzorowanego: bacroagation (wraz z modyfiacjami inercyjnymi) (algorytm I rzędu) metodę zmiennej metryi (algorytm II rzędu) metodę gradientów srzężonych (algorytm I rzędu)
5 Algorytmy mięiej selecji Algorytmami mięiej selecji nazywamy algorytmy umożliwiające acetowanie wzrostu minimalizowanej funcji celu, o to by ewentualnie ominąć strefę rzyciągania minimum loalnego. Do najbardziej znanych należą metody bazujące na: Algorytmach ewolucyjnych (genetycznych) Symulowanym wyżarzaniu (odrężaniu)
6 Algorytmy ewolucyjne (AE) Pierwowzorem AE były algorytmy genetyczne (AG), tóre bazowały na zjawisu doboru naturalnego wystęującego w rzyrodzie ożywionej Podstawowa strutura danych: chromosom (ciąg genów). Dla chromosomów haloidalnych ojedynczy chromosom jest równoważny genotyowi
7 Genoty i fenoty w AE W AE chromosom rerezentuje jedno otencjalne rozwiązanie Znaczenie tego rozwiązania, czyli fenoty jest definiowane z zewnątrz rzez użytownia
8 AE w dziedzinie sieci neuronowych Fenotyami rozważanymi rzez nas są sieci neuronowe Chromosomami zaś są ewne rerezentacje sieci neuronowych oddane rzetwarzaniu w algorytmie ewolucyjnym
9 Podstawowe oeratory genetyczne Selecja (odowiada za dobór naturalny fenotyów) Krzyżowanie lub reombinacja (odowiada wymianie fragmentów chromosomów) Mutacja (odowiada rzyadowej zmienności genów w chromosomie)
10 Zadania oeratorów genetycznych Zadaniem selecji jest statystycznie bardziej rawdoodobny wybór tych fenotyów (a ośrednio tych chromosomów), tórych doasowanie (czyli funcja celu) jest więsza od ozostałych fenotyów oulacji Zadaniem rzyżowania i mutacji jest generowanie nowych otencjalnych rozwiązań.
11 Algorytmy genetyczne vs algorytmy ewolucyjne W AG chromosomy są zdefiniowane jao łańcuchy bitów. Transformacją taich chromosomów do rzestrzeni zadania zajmowały się somliowane funcje deodujące W AE ostuluje się zejście z rerezentacją chromosomów ta bliso rozwiązywanego zadania, ja to jest możliwe. Rerezentacje chromosomów ulegają więc znacznemu oszerzeniu. Najczęściej jedna stosuje się rerezentacje zmiennoozycyjne, w tórych chromosom to rosty ciąg liczb rzeczywistych
12 Tyowy algorytm ewolucyjny Inicjalizacja sztucznego świata; // małe creatio e nihilo Poolenie = 1; //Adam i Ewa Oblicz doasowanie; while (not warune_zaończenia) do Selecja; // homo homini luus est Krzyżowanie; // troszę rzyjemności z wymiany genów Mutacja; // ta zaewne owstały rasnoludi Inc (Poolenie); Oblicz doasowanie; end while; Mamy Poolenie NADKRASNALI; // Pora się obudzić
13 Oerator rzyżowania sieci neuronowych rodzice otome
14 Oerator mutacji sieci neuronowej rodzic otome
15 Cele stosowania AE w dziedzinie sieci neuronowych Uczenie sieci: doasowanie oreśla się jao f = 1 E znormalizowane Poszuiwanie otymalnej strutury sieci: roblem nauowo otwarty: nietrywialne definicje oeratorów genetycznych, tzw. roblem ermutacji: wiele różnych struturalnie sieci jest identyczna funcjonalnie)
16 Symulowane wyżarzanie ochodzenie metody Bazę stanowi analogia (znana fizyce statystycznej) tworzenia ryształu ciała stałego orzez owolne wymrażanie Minimalny stan energetyczny odowiadający ryształowi osiąga się tylo orzez owolne obniżanie temeratury, ta by w ażdej temeraturze dochodziło do sełnienia równowagi termicznej
17 Symulowane wyżarzanie ja stosować algorytm dla SN Przyisać funcji energetycznej wartość minimalizowanej funcji błędu SN Wyrażając temeraturę w jednostach energii można rzedstawić uczenie sieci neuronowej ja na nastęnym slajdzie.
18 Symulowane wyżarzanie - algorytm S = S 0 ; // rozwiązanie oczątowe T = T 0 // temeratura oczątowa while (not warune_ońca) do while (not stan_równowagi) do S = losowo_generowane_sąsiednie_rozwiązanie; E = E (S ) E (S); if ( E < 0) or (RND < e (- E/T)) then S = S ; end if; end while; Atualizacja T; end while; S znalezione rozwiązanie
19 Dobór temeratury w algorytmie symulowanego wyżarzania Dobór temeratury może być doonywany według wzoru: T ( t ) n T = 0 1+ ln gdzie: t n jest olejnym cylem rzetwarzania t n
20 Klasyfiacja statyczna Wynii lasyfiacji w roach orzednich nie wływają na lasyfiację w chwili bieżącej Przyładem jest lasyfiacja doonywana rzez WYTRENOWANĄ sieć neuronową
21 Klasyfiacja statystyczna - motywacja Klasyfiowane wetory cech są obarczone załóceniami owstałymi w różnego rodzaju rzetwarzaniu wstęnym Najczęściej załócenia są złożeniami niezależnych załóceń elementarnych, zatem wyniowe załócenia mają normalny rozład gęstości Rezultatem jest częściowe naładanie się w rzestrzeni cech regionów należących do oszczególnych las: lasyfiacja bezbłędna jest niemożliwym do sełnienia ideałem
22 Klasyfiacja statystyczna losowa lasa abstracji Wyeliminowanie determinizmu lasyfiacji daje odstawy do wrowadzenia ojęcia losowej lasy abstracji Losowa lasa abstracji wyznaczana jest orzez funcję ( C ) oreślającą gęstość rawdoodobieństwa rzynależności wetora do lasy C
23 Klasyfiacja statystyczna - cele Ponieważ dla wielu może zachodzić jednocześnie: ( C ) > 0, zatem wiele wetorów cech nie może być zawalifiowanych jednoznacznie do jednej tylo lasy Dlatego celem lasyfiacji statystycznej jest lasyfiacja, tórej odowiada najmniejsze rawdoodobieństwo nierawidłowej decyzji (uwzględniając również oszty błędnych decyzji w ostaci dodatowych wag).
24 Klasyfiacja statystyczna - oznaczenia ( C ) rozład oreślający losowe lasy abstracji P (C ) rawdoodobieństwo a riori lasy C () rozład rawdoodobieństwa wetora cech P (C ) rawdoodobieństwo a osteriori rzynależności do lasy C o zaobserwowaniu wetora cech
25 Reguła Bayes a Prawdoodobieństwo oniuncji zdarzeń zależnych (ierwsza ostać): P( C, ) = P( C ) ( ) Prawdoodobieństwo oniuncji zdarzeń zależnych (druga ostać): ( C, ) = ( C ) P( C ) P Wniose (reguła Bayes a): P ( C ) = ( C ) P( C ) ( )
26 Mianowni we wzorze Bayes a jest niezależny od lasy Ponieważ rawdoodobieństwo zdarzeń niezależnych wyraża się wzorem: ( ) = P( C, ) = ( C ) P( C ) Zatem mianowni wzoru Bayes a ełni tylo rolę normalizującą, by rawdoodobieństwa a osteriori sumowały się do jedności: P C = ( ) 1
27 Problem oreślenia reguły lasyfiacji w modelu z nieewnością losową Oreślenie reguły decyzyjnej jest w ogólności zależne od celu lasyfiacji Najczęściej rzyjmuje się minimalizację strat średnich wyniłych z błędnego zawalifiowania Czasami jedna minimalizować można straty masymalne, minimalne lub najbardziej rawdoodobne
28 Cel: minimalizacja strat średnich Średnia strata wyniła z sytuacji, iż wetor cech został zawalifiowany do lasy C j, oznaczana jao r j (), jest dana wyrażeniem: r j K ( ) = L ( ) j P C = 1 gdzie: L j oznacza stratę owstałą z zawalifiowania do lasy C j obrazu fatycznie należącego do lasy abstracji C.
29 Cel: minimalizacja strat średnich (cd.) Stosując wzór Bayes a otrzymujemy: r j ( ) = 1 ( ) K = 1 L j ( ) C P( C )
30 Założenie: straty ze wszystich błędnych decyzji są sobie równe Wówczas funcję strat L j można rzedstawić jao: Lj = 1 δ j Gdzie: δ j = 0 1 = j j
31 r j Straty średnie (cd.) Podstawiając wzór na L j do wzoru na r j () dostajemy: K K 1 ( ) ( ) ( ) ( ) ( ) C P C δ C P( C ) = = 1 = 1 Uwzględnienie wzoru na rawdoodobieństwo całowite oraz fatu, że δ j jest różne od zera tylo dla = j, rowadzi do: r j ( ) = 1 1 ( C ) P( C ) ( ) j j j
32 Wzór ońcowy na straty średnie Stosując jeszcze raz rawo Bayes a otrzymujemy ostatecznie: j ( ) ( ) = 1 C r P j
33 Klasyfiacja w modelu z nieewnością losową- odsumowanie δ ( ) ( C ) rj = 1 P r j j - funcja strat średnich owstałych rzy zalasyfiowaniu wetora cech jao należącego do lasy abstracji C j ( ) = C P( C ) > P( C ) j Reguła decyzyjna: wetor cech owinien być zalasyfiowany do tej lasy abstracji C, dla tórej rawdoodobieństwo a osteriori P (C ) jest najwięsze Cyran K. A., Jaroszewicz L. R., Automatic Image Recognition Based on Diffraction Method and Artificial Neural Networ, Stare Jabłoni 2000, j
34 Kryterium odrzucenia Ponadto w modelu z nieewnością losową można zdefiniować tzw. ryterium odrzucenia: ma P ( C ) θ < θ slasyfiu odrzu ć j
35 Podstawowy roblem lasyfiacji statystycznej a SN Ponieważ reguła decyzyjna oiera się na orównaniu rawdoodobieństw a osteriori rzynależności wetorów cech do las, zatem aby ją stosować należy znać te rawdoodobieństwa Ja zostanie oazane za chwilę, właściwie nauczone sieci neuronowe otrafią arosymować te rawdoodobieństwa z wzorców uczących.
36 Sieci neuronowe w lasyfiacji statystycznej - założenia Niech lasyfiator neuronowy uczony jest dużą liczbą rzyładów uczących w ostaci ar (, C j ) gdzie jest wetorem wejściowym (wetorem cech) a C j rawidłową lasą abstracji odowiadającą temu wetorowi. Indes j = 1,..., K, odowiada numerowi lasy abstracji, a K jest ilością las do rozoznania. Niech ary (, C j ) mają rozład rawdoodobieństw (, C j ) Niech y () będzie wartością ojawiającą się na -tym neuronie wyjściowym. Oczywiście zachodzi również: = 1,..., K.
37 Sieci neuronowe w lasyfiacji statystycznej - założenia (cd.) Wymagane odowiedzi sieci oznaczane rzez T j sełniają zależność: 1 T j = 0 = j j
38 Sieci neuronowe w lasyfiacji statystycznej roblem uczenia Uczenie jest minimalizacją sumy funcjonału błędu średniowadratowego liczonej o wszystich lasach i wszystich wetorach roorcjonalnie do ich rozładu rawdoodobieństw. Jest zatem minimalizacją wyrażenia E danego wzorem: E = ( ) ( ( )) 2, C T y d j j j
39 Sieci neuronowe w lasyfiacji statystycznej uczenie (cd.) Przedstawmy funcję błędu E jao: E = j ( )( ( )) 2, C T y d = E d j j Gdzie: E (, C )( T y ( ) ) = j j j 2
40 Sieci neuronowe w lasyfiacji statystycznej uczenie (cd.) Ponieważ E jest dodatnie dla dowolnego oraz, zatem minimalizując go minimalizuje się również E. Rozdzielając wyrażenie na E na dwie części dla: j = oraz j dostajemy: E = (, C ) 1 y ( ) ( ) 2 ( ) 2 + ( ), C j y j
41 Sieci neuronowe w lasyfiacji statystycznej uczenie (cd.) Kolejno rzeształcamy to wyrażenie: ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) 2 2, 2 1, y C y y C E + + = ( ) ( ) ( ) ( ) ( ) 2, 2, y y C C E + = ( ) ( ) ( ) ( ) ( ) ( ) 2 2 y y C C E + = ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) y y C C C C E =
42 Sieci neuronowe w lasyfiacji statystycznej uczenie (cd.) Otrzymujemy ostatecznie: E = ( ) ( C ) ( 1 ( C ) ) + ( ) ( ( C ) y ( ) ) 2 Widać, że E jest minimalizowane gdy: ( ) ( ) C y =
43 SSN rzybliżają na wyjściach rawdoodobieństwa a osteriori E SSN generuje na wyjściu y dla wetora wejściowego bład E dany rzez: = ( ) ( C ) ( 1 ( C ) ) + ( ) ( ( C ) y ( ) ) 2 Ponieważ ierwszy sładni sumy nie zależy od y, błąd jest minimalizowany gdy: ( ) ( C ) y = Z drugiej strony uczenie SSN minimalizuje błąd E,, dlatego: właściwie wytrenowane SSN rzybliża rawdoodobieństwa a osteriori oszczególnych las abstracji C
44 Probabilistyczne sieci neuronowe Są dedyowane do zadań lasyfiacji statystycznej Uczenie jednorzebiegowe Są secjalizowanymi sieciami RBF dedyowanymi do generowania estymatorów jądrowych gęstości warunowych rawdoodobieństw wyorzystywanych w lasyfiacji statystycznej
45 Probabilistyczne sieci neuronowe - strutura Warstwa sumacyjna... M Warstwa wzorców Warstwa wejściowa... N Cechy charaterystyczne
46 Probabilistyczne sieci neuronowe - estymacja jądrowa Oznaczenia: zbiór V j ={(s) R N,1 s S j }wetorów cech należących do lasy C j ˆ ( C ) j = 1 S j ( s) V j h 1 ( s, j) N K h ( s) ( s, j)
47 Oowieść o angurach Tresowany angur osuwa się tylo do góry. Wchodzi na szczyt dowolnie wybranej góry i ma nadzieję, że wejdzie na Mont Everest (algorytm gradientowy) Tresowany angur jest ijany, chodzi tu i tam. W ońcu owoli trzeźwieje i stara się iść w górę w nadziei, że zdobywa Mont Everest (symulowane wyżarzanie) W Himalajach uszczono stado nie tresowanych angurów, tóre nie mają ojęcia co mają robić. Saczą tu i tam. Jedna co ewien zabija się angury lubiące saanie w dolinach w nadziei, że o wielu taich olowaniach, tóryś z angurów lubiących szczyty dotrze w obliże szczytu Mont Everest (algorytmy ewolucyjne)
Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311
Sztuczne sieci neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311 Wykład 7 PLAN: - Repetitio (brevis) -Algorytmy miękkiej selekcji: algorytmy ewolucyjne symulowane wyżarzanie
Metody probabilistyczne Rozwiązania zadań
Metody robabilistyczne Rozwiązania zadań 6. Momenty zmiennych losowych 8.11.2018 Zadanie 1. Poaż, że jeśli X Bn, to EX n. Odowiedź: X rzyjmuje wartości w zbiorze {0, 1,..., n} z rawdoodobieństwami zadanymi
Kody Huffmana oraz entropia przestrzeni produktowej. Zuzanna Kalicińska. 1 maja 2004
Kody uffmana oraz entroia rzestrzeni rodutowej Zuzanna Kalicińsa maja 4 Otymalny od bezrefisowy Definicja. Kod nad alfabetem { 0, }, w tórym rerezentacja żadnego znau nie jest refisem rerezentacji innego
Uczenie sieci typu MLP
Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik
Podstawy rachunku prawdopodobieństwa (przypomnienie)
. Zdarzenia odstawy rachunu prawdopodobieństwa (przypomnienie). rawdopodobieństwo 3. Zmienne losowe 4. rzyład rozładu zmiennej losowej. Zdarzenia (events( events) Zdarzenia elementarne Ω - zbiór zdarzeń
8. Neuron z ciągłą funkcją aktywacji.
8. Neuron z ciągłą funkcją aktywacji. W tym ćwiczeniu zapoznamy się z modelem sztucznego neuronu oraz przykładem jego wykorzystania do rozwiązywanie prostego zadania klasyfikacji. Neuron biologiczny i
Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311
Sztuczne sieci neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311 PLAN: Wykład 5 - Metody doboru współczynnika uczenia - Problem inicjalizacji wag - Problem doboru architektury
Do Szczegółowych Zasad Prowadzenia Rozliczeń Transakcji przez KDPW_CCP
Załączni nr Do Szczegółowych Zasad Prowadzenia Rozliczeń Transacji rzez KDPW_CCP Wyliczanie deozytów zabezieczających dla rynu asowego (ozycje w acjach i obligacjach) 1. Definicje Ileroć w niniejszych
A. Cel ćwiczenia. B. Część teoretyczna
A. Cel ćwiczenia Celem ćwiczenia jest zapoznanie się z wsaźniami esploatacyjnymi eletronicznych systemów bezpieczeństwa oraz wyorzystaniem ich do alizacji procesu esplatacji z uwzględnieniem przeglądów
Metody Sztucznej Inteligencji II
17 marca 2013 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką, która jest w stanie odbierać i przekazywać sygnały elektryczne. Neuron działanie Jeżeli wartość sygnału
Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania. Podstawy Automatyki
Politechnia dańsa Wydział Eletrotechnii i Automatyi Katedra Inżynierii Systemów Sterowania Podstawy Automatyi Transmitancyjne schematy bloowe i zasady ich rzeształcania Materiały omocnicze do ćwiczeń termin
Uczenie sieci radialnych (RBF)
Uczenie sieci radialnych (RBF) Budowa sieci radialnej Lokalne odwzorowanie przestrzeni wokół neuronu MLP RBF Budowa sieci radialnych Zawsze jedna warstwa ukryta Budowa neuronu Neuron radialny powinien
Podstawy Sztucznej Inteligencji (PSZT)
Podstawy Sztucznej Inteligencji (PSZT) Paweł Wawrzyński Uczenie maszynowe Sztuczne sieci neuronowe Plan na dziś Uczenie maszynowe Problem aproksymacji funkcji Sieci neuronowe PSZT, zima 2013, wykład 12
1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda
Sieci neuropodobne 1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN Agenda Trochę neurobiologii System nerwowy w organizmach żywych tworzą trzy
Sztuczna Inteligencja Tematy projektów Sieci Neuronowe
PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia
LABORATORIUM 4: Wpływ operatorów mutacji na skuteczność poszukiwań AE
Instytut Mechanii i Inżynierii Obliczeniowej Wydział Mechaniczny Technologiczny, Politechnia Śląsa www.imio.polsl.pl OBLICZENIA EWOLUCYJNE LABORATORIUM 4: Wpływ operatorów mutacji na suteczność poszuiwań
wtedy i tylko wtedy, gdy rozwiązanie i jest nie gorsze od j względem k-tego kryterium. 2) Macierz części wspólnej Utwórz macierz
Temat: Programowanie wieloryterialne. Ujęcie dysretne.. Problem programowania wieloryterialnego. Z programowaniem wieloryterialnym mamy do czynienia, gdy w problemie decyzyjnym występuje więcej niż jedno
Wykład 13 Druga zasada termodynamiki
Wyład 3 Druga zasada termodynamii Entroia W rzyadu silnia Carnota z gazem dosonałym otrzymaliśmy Q =. (3.) Q Z tego wzoru wynia, że wielość Q Q = (3.) dla silnia Carnota jest wielością inwariantną (niezmienniczą).
3. Kinematyka podstawowe pojęcia i wielkości
3. Kinematya odstawowe ojęcia i wielości Kinematya zajmuje się oisem ruchu ciał. Ruch ciała oisujemy w ten sosób, że odajemy ołożenie tego ciała w ażdej chwili względem wybranego uładu wsółrzędnych. Porawny
Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe
Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Trening jednokierunkowych sieci neuronowych wykład 2. dr inż. PawełŻwan Katedra Systemów Multimedialnych Politechnika Gdańska
Metody Rozmyte i Algorytmy Ewolucyjne
mgr inż. Wydział Matematyczno-Przyrodniczy Szkoła Nauk Ścisłych Uniwersytet Kardynała Stefana Wyszyńskiego Podstawowe operatory genetyczne Plan wykładu Przypomnienie 1 Przypomnienie Metody generacji liczb
Podstawy sztucznej inteligencji
wykład 5 Sztuczne sieci neuronowe (SSN) 8 grudnia 2011 Plan wykładu 1 Biologiczne wzorce sztucznej sieci neuronowej 2 3 4 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką,
Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta
Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa
WIELOKRYTERIALNY DOBÓR PARAMETRÓW OPERATORA MUTACJI W ALGORYTMIE EWOLUCYJNYM UCZENIA SIECI NEURONOWEJ
POZNAN UNIVE RSITY OF TE CHNOLOGY ACADE MIC JOURNALS No 91 Electrical Engineering 2017 DOI 10.21008/j.1897-0737.2017.91.0017 Stanisław PŁACZEK* WIELOKRYTERIALNY DOBÓR PARAMETRÓW OPERATORA MUTACJI W ALGORYTMIE
SZTUCZNA INTELIGENCJA
ZTUCZNA INTELIGENCJA WYKŁAD 6. ALGORYTMY GENETYCZNE - CHEMATY, METODY ELEKCJI Częstochowa 204 Dr hab. inż. Grzegorz Dude Wydział Eletryczny Politechnia Częstochowsa CHEMATY chemat zbór chromosomów o wspólnych
SZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA SYSTEMY ROZMYTE Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej Katedra Automatyki i Inżynierii Biomedycznej Laboratorium
Modelowanie przez zjawiska przybliżone. Modelowanie poprzez zjawiska uproszczone. Modelowanie przez analogie. Modelowanie matematyczne
Modelowanie rzeczywistości- JAK? Modelowanie przez zjawisa przybliżone Modelowanie poprzez zjawisa uproszczone Modelowanie przez analogie Modelowanie matematyczne Przyłady modelowania Modelowanie przez
Algorytm genetyczny (genetic algorithm)-
Optymalizacja W praktyce inżynierskiej często zachodzi potrzeba znalezienia parametrów, dla których system/urządzenie będzie działać w sposób optymalny. Klasyczne podejście do optymalizacji: sformułowanie
4.1. Wprowadzenie...70 4.2. Podstawowe definicje...71 4.3. Algorytm określania wartości parametrów w regresji logistycznej...74
3 Wykaz najważniejszych skrótów...8 Przedmowa... 10 1. Podstawowe pojęcia data mining...11 1.1. Wprowadzenie...12 1.2. Podstawowe zadania eksploracji danych...13 1.3. Główne etapy eksploracji danych...15
P(T) = P(T M) = P(T A) = P(T L) = P(T S) = P(T L M) = P(T L A) = P(T S M) = P(T S A) =
Przyład (obrona orętów USA przed ataami lotnictwa japońsiego) Możliwe dwie wyluczające się tatyi: M = manewr A = artyleria przeciwlotnicza Departament Marynari Wojennej na podstawie danych z wojny na Pacyfiu
Inteligentne systemy przeciw atakom sieciowym
Inteligentne systemy przeciw atakom sieciowym wykład Sztuczne sieci neuronowe (SSN) Joanna Kołodziejczyk 2016 Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 1 / 36 Biologiczne
MODYFIKACJA KOSZTOWA ALGORYTMU JOHNSONA DO SZEREGOWANIA ZADAŃ BUDOWLANYCH
MODYFICJ OSZTOW LGORYTMU JOHNSON DO SZEREGOWNI ZDŃ UDOWLNYCH Michał RZEMIŃSI, Paweł NOW a a Wydział Inżynierii Lądowej, Załad Inżynierii Producji i Zarządzania w udownictwie, ul. rmii Ludowej 6, -67 Warszawa
Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335
Sztuczne sieci neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335 Wykład 10 Mapa cech Kohonena i jej modyfikacje - uczenie sieci samoorganizujących się - kwantowanie wektorowe
6. Inteligentne regulatory rozmyte dla serwomechanizmów
6. Inteligentne regulatory rozmyte dla serwomechanizmów Pojęcie regulatorów inteligentnych, w onteście niniejszego rozdziału, oreśla ułady sterowania owstałe rzy użyciu techni wywodzących się z ludzich
METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING
METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING Maszyna Wektorów Nośnych Suort Vector Machine SVM Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki
( ) + ( ) T ( ) + E IE E E. Obliczanie gradientu błędu metodą układu dołączonego
Obliczanie gradientu błędu metodą uładu dołączonego /9 Obliczanie gradientu błędu metodą uładu dołączonego Chodzi o wyznaczenie pochodnych cząstowych funcji błędu E względem parametrów elementów uładu
1.3 Przestrzenie ilorazowe
1.3 Przestrzenie ilorazowe Niech X 0 będzie odrzestrzenią liniową X 0, +, rzestrzeni liniowej X, +,. Oreślmyzbiór x + X 0 := {x + y : y X 0 }. Zbiór ten nazywamy warstwą elementu x X względem odrzestrzeni
Zastosowania sieci neuronowych
Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką
Uczenie sieci neuronowych i bayesowskich
Wstęp do metod sztucznej inteligencji www.mat.uni.torun.pl/~piersaj 2009-01-22 Co to jest neuron? Komputer, a mózg komputer mózg Jednostki obliczeniowe 1-4 CPU 10 11 neuronów Pojemność 10 9 b RAM, 10 10
Uwaga 1.1 Jeśli R jest relacją w zbiorze X X, to mówimy, że R jest relacją w zbiorze X. Rozważmy relację R X X. Relację R nazywamy zwrotną, gdy:
Matematya dysretna - wyład 1. Relacje Definicja 1.1 Relacją dwuargumentową nazywamy podzbiór produtu artezjańsiego X Y, tórego elementami są pary uporządowane (x, y), taie, że x X i y Y. Uwaga 1.1 Jeśli
OPTYMALIZACJA PRZEPUSTOWOŚCI SIECI KOMPUTEROWYCH ZA POMOCĄ ALGORYTMÓW GENETYCZNYCH
OPTYMALIZACJA PRZEPUSTOWOŚCI SIECI KOMPUTEROWYCH ZA POMOCĄ ALGORYTMÓW GENETYCZNYCH Andrzej SZYMONIK, Krzysztof PYTEL Streszczenie: W złożonych sieciach omputerowych istnieje problem doboru przepustowości
Algorytmy tekstowe na przykładzie KMP
Łukasz Kowalik, SD 2003 lgorytmy tekstowe na rzykładzie KMP 1 lgorytmy tekstowe na rzykładzie KMP Postawowe ojęcia Niech będzie dowolnym skończonym nieustym zbiorem symboli. Zbiór nazywamy alfabetem. Dowolny
Sieci neuronowe w Statistica
http://usnet.us.edu.pl/uslugi-sieciowe/oprogramowanie-w-usk-usnet/oprogramowaniestatystyczne/ Sieci neuronowe w Statistica Agnieszka Nowak - Brzezińska Podstawowym elementem składowym sztucznej sieci neuronowej
Ćwiczenia do wykładu Fizyka Statystyczna i Termodynamika
Ćwiczenia do wykładu Fizyka tatystyczna i ermodynamika Prowadzący dr gata Fronczak Zestaw 5. ermodynamika rzejść fazowych: równanie lausiusa-laeyrona, własności gazu Van der Waalsa 3.1 Rozważ tyowy diagram
σ-ciało zdarzeń Niech Ω będzie niepustym zbiorem zdarzeń elementarnych, a zbiór F rodziną podzbiorów zbioru Ω spełniającą warunki: jeśli A F, to A F;
Zdarzenie losowe i zdarzenie elementarne Zdarzenie (zdarzenie losowe) - wyni pewnej obserwacji lub doświadczenia; może być ilościowy lub jaościowy. Zdarzenie elementarne - najprostszy wyni doświadczenia
A i A j lub A j A i. Operator γ : 2 X 2 X jest ciągły gdy
3. Wyład 7: Inducja i reursja struturalna. Termy i podstawianie termów. Dla uninięcia nieporozumień notacyjnych wprowadzimy rozróżnienie między funcjami i operatorami. Operatorem γ w zbiorze X jest funcja
Projekt Sieci neuronowe
Projekt Sieci neuronowe Chmielecka Katarzyna Gr. 9 IiE 1. Problem i dane Sieć neuronowa miała za zadanie nauczyć się klasyfikować wnioski kredytowe. W projekcie wykorzystano dane pochodzące z 110 wniosków
Optymalizacja ciągła
Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej
DRGANIA WŁASNE RAM OBLICZANIE CZĘSTOŚCI KOŁOWYCH DRGAŃ WŁASNYCH
Część 5. DRGANIA WŁASNE RAM OBLICZANIE CZĘSTOŚCI KOŁOWYCH... 5. 5. DRGANIA WŁASNE RAM OBLICZANIE CZĘSTOŚCI KOŁOWYCH DRGAŃ WŁASNYCH 5.. Wprowadzenie Rozwiązywanie zadań z zaresu dynamii budowli sprowadza
4.15 Badanie dyfrakcji światła laserowego na krysztale koloidalnym(o19)
256 Fale 4.15 Badanie dyfracji światła laserowego na rysztale oloidalnym(o19) Celem ćwiczenia jest wyznaczenie stałej sieci dwuwymiarowego ryształu oloidalnego metodą dyfracji światła laserowego. Zagadnienia
Algebra liniowa z geometrią analityczną
WYKŁAD. Własności zbiorów liczbowych. Podzielność liczb całowitych, relacja przystawania modulo, twierdzenie chińsie o resztach. Liczby całowite Liczby 0,±,±,±3,... nazywamy liczbami całowitymi. Zbiór
Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.
Wstęp do teorii sztucznej inteligencji Wykład III Modele sieci neuronowych. 1 Perceptron model najprostzszy przypomnienie Schemat neuronu opracowany przez McCullocha i Pittsa w 1943 roku. Przykład funkcji
Materiały dydaktyczne. Matematyka. Semestr III. Wykłady
Materiały dydatyczne Matematya Semestr III Wyłady Aademia Morsa w Szczecinie ul. Wały Chrobrego - 70-500 Szczecin WIII RÓWNANIA RÓŻNICZKOWE ZWYCZAJNE PIERWSZEGO RZĘDU. Pojęcia wstępne. Równania różniczowe
(u) y(i) f 1. (u) H(z -1 )
IDETYFIKACJA MODELI WIEERA METODAMI CZĘSTOTLIWOŚCIOWYMI Opracowanie: Anna Zamora Promotor: dr hab. inż. Jarosław Figwer Prof. Pol. Śl. MODELE WIEERA MODELE WIEERA Modele obietów nieliniowych Modele nierozłączne
( n) Łańcuchy Markowa X 0, X 1,...
Łańcuchy Markowa Łańcuchy Markowa to rocesy dyskretne w czasie i o dyskretnym zbiorze stanów, "bez amięci". Zwykle będziemy zakładać, że zbiór stanów to odzbiór zbioru liczb całkowitych Z lub zbioru {,,,...}
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-10-15 Projekt
Aproksymacja funkcji a regresja symboliczna
Aproksymacja funkcji a regresja symboliczna Problem aproksymacji funkcji polega na tym, że funkcję F(x), znaną lub określoną tablicą wartości, należy zastąpić inną funkcją, f(x), zwaną funkcją aproksymującą
Grupowanie sekwencji czasowych
BIULETYN INSTYTUTU AUTOMATYKI I ROBOTYKI NR 3, 006 Grupowanie sewencji czasowych Tomasz PAŁYS Załad Automatyi, Instytut Teleinformatyi i Automatyi WAT, ul. Kalisiego, 00-908 Warszawa STRESZCZENIE: W artyule
Algorytm Genetyczny. zastosowanie do procesów rozmieszczenia stacji raportujących w sieciach komórkowych
Algorytm Genetyczny zastosowanie do procesów rozmieszczenia stacji raportujących w sieciach komórkowych Dlaczego Algorytmy Inspirowane Naturą? Rozwój nowych technologii: złożone problemy obliczeniowe w
Testowanie hipotez statystycznych.
Statystyka Wykład 10 Wrocław, 22 grudnia 2011 Testowanie hipotez statystycznych Definicja. Hipotezą statystyczną nazywamy stwierdzenie dotyczące parametrów populacji. Definicja. Dwie komplementarne w problemie
Uchwała Nr 75/14. Zarządu KDPW_CCP S.A. z dnia 16 września 2014 r. w sprawie zmiany Szczegółowych Zasad Prowadzenia Rozliczeń Transakcji (obrót
Uchwała Nr 75/14 Zarządu KDPW_CCP S.A. z dnia 16 września 2014 r. w srawie zmiany Szczegółowych Zasad Prowadzenia Rozliczeń Transacji (obrót zorganizowany) Na odstawie 2 ust. 1 i 4 Regulaminu rozliczeń
ĆWICZENIE 4 KRZ: A B A B A B A A METODA TABLIC ANALITYCZNYCH
ĆWICZENIE 4 Klasyczny Rachunek Zdań (KRZ): metoda tablic analitycznych, system aksjomatyczny S (aksjomaty, reguła dowodzenia), dowód w systemie S z dodatkowym zbiorem założeń, tezy systemu S, wtórne reguły
Oprogramowanie Systemów Obrazowania SIECI NEURONOWE
SIECI NEURONOWE Przedmiotem laboratorium jest stworzenie algorytmu rozpoznawania zwierząt z zastosowaniem sieci neuronowych w oparciu o 5 kryteriów: ile zwierzę ma nóg, czy żyje w wodzie, czy umie latać,
ODRZUCANIE WYNIKÓW POJEDYNCZYCH POMIARÓW
ODRZUCANIE WYNIKÓW OJEDYNCZYCH OMIARÓW W praktyce pomiarowej zdarzają się sytuacje gdy jeden z pomiarów odstaje od pozostałych. Jeżeli wykorzystamy fakt, że wyniki pomiarów są zmienną losową opisywaną
Badanie stacjonarności szeregów czasowych w programie GRETL
Badanie stacjonarności szeregów czasowych w programie GRETL Program proponuje następujące rodzaje testów stacjonarności zmiennych:. Funcję autoorelacji i autoorelacji cząstowej 2. Test Diceya-Fullera na
RUCH DRGAJĄCY. Ruch harmoniczny. dt A zatem równanie różniczkowe ruchu oscylatora ma postać:
RUCH DRGAJĄCY Ruch haroniczny Ruch, tóry owtarza się w regularnych odstęach czasu, nazyway ruche oresowy (eriodyczny). Szczególny rzyadie ruchu oresowego jest ruch haroniczny: zależność rzeieszczenia od
Wybrane rozkłady zmiennych losowych i ich charakterystyki
Rozdział 1 Wybrane rozłady zmiennych losowych i ich charaterystyi 1.1 Wybrane rozłady zmiennych losowych typu soowego 1.1.1 Rozład równomierny Rozpatrzmy esperyment, tóry może sończyć się jednym z n możliwych
Chemia Fizyczna Technologia Chemiczna II rok Wykład 1. Kontakt,informacja i konsultacje. Co to jest chemia fizyczna?
Chemia Fizyczna Technologia Chemiczna II ro Wyład 1 Kierowni rzedmiotu: Dr hab. inż. Wojciech Chrzanowsi Kontat,informacja i onsultacje Chemia A ; oój 307 Telefon: 347-2769 E-mail: wojte@chem.g.gda.l tablica
Rozpoznawanie obrazów
Rozpoznawanie obrazów Ćwiczenia lista zadań nr 7 autorzy: A. Gonczarek, J.M. Tomczak Przykładowe problemy Klasyfikacja binarna Dla obrazu x zaproponowano dwie cechy φ(x) = (φ 1 (x) φ 2 (x)) T. Na obrazie
Pattern Classification
Pattern Classification All materials in these slides were taen from Pattern Classification (2nd ed) by R. O. Duda, P. E. Hart and D. G. Stor, John Wiley & Sons, 2000 with the permission of the authors
Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.
Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe. zajecia.jakubw.pl/nai Literatura: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym. WNT, Warszawa 997. PODSTAWOWE ZAGADNIENIA TECHNICZNE AI
Matematyka dyskretna. Wykład 2: Kombinatoryka. Gniewomir Sarbicki
Matematya dysretna Wyład 2: Kombinatorya Gniewomir Sarbici Kombinatorya Definicja Kombinatorya zajmuje się oreślaniem mocy zbiorów sończonych, w szczególności mocy zbiorów odwzorowań jednego zbioru w drugi
SZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA WYKŁAD 4. UCZENIE SIĘ INDUKCYJNE Częstochowa 24 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska WSTĘP Wiedza pozyskana przez ucznia ma charakter odwzorowania
Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska
Sieci neuronowe w Statistica Agnieszka Nowak - Brzezioska Podstawowym elementem składowym sztucznej sieci neuronowej jest element przetwarzający neuron. Schemat działania neuronu: x1 x2 w1 w2 Dendrites
DYNAMICZNE MODELE EKONOMETRYCZNE
DYNAICZNE ODELE EKONOERYCZNE IX Ogólnoolsie Seminarium Nauowe, 6 8 września 005 w oruniu Katedra Eonometrii i Statystyi, Uniwersytet iołaja Koernia w oruniu Jace Kwiatowsi Uniwersytet iołaja Koernia w
Stanisław Cichocki. Natalia Nehrebecka. Wykład 10
Stanisław Cichoci Natalia Nehrebeca Wyład 10 1 1. Testowanie hipotez prostych Rozład estymatora b Testowanie hipotez prostych przy użyciu statystyi t Przedziały ufności Badamy czy hipotezy teoretyczne
SIECI RBF (RADIAL BASIS FUNCTIONS)
SIECI RBF (RADIAL BASIS FUNCTIONS) Wybrane slajdy z prezentacji prof. Tadeusiewicza Wykład Andrzeja Burdy S. Osowski, Sieci Neuronowe w ujęciu algorytmicznym, Rozdz. 5, PWNT, Warszawa 1996. opr. P.Lula,
Materiały do wykładów na temat Obliczanie sił przekrojowych i momentów przekrojowych. dla prętów zginanych.
ateriały do wyładów na temat Obliczanie sił przerojowych i momentów przerojowych dla prętów zginanych Wydr eletroniczny. slajdów na. stronach przeznaczony do celów dydatycznych dla stdentów II ro stdiów
PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH**
Górnictwo i Geoinżynieria Rok 31 Zeszyt 3 2007 Dorota Pawluś* PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH** 1. Wstęp Eksploatacja górnicza złóż ma niekorzystny wpływ na powierzchnię
Zastosowanie sztucznych sieci neuronowych w prognozowaniu szeregów czasowych (prezentacja 2)
Zastosowanie sztucznych sieci neuronowych w prognozowaniu szeregów czasowych (prezentacja 2) Ewa Wołoszko Praca pisana pod kierunkiem Pani dr hab. Małgorzaty Doman Plan tego wystąpienia Teoria Narzędzia
w analizie wyników badań eksperymentalnych, w problemach modelowania zjawisk fizycznych, w analizie obserwacji statystycznych.
Aproksymacja funkcji a regresja symboliczna Problem aproksymacji funkcji polega na tym, że funkcję F(), znaną lub określoną tablicą wartości, należy zastąpić inną funkcją, f(), zwaną funkcją aproksymującą
Zastosowanie informatyki w elektrotechnice
Zastosowanie informatyi w eletrotechnice Politechnia Białostoca - Wydział Eletryczny Eletrotechnia, semestr V, studia niestacjonarne Ro aademici 2006/2007 Wyład nr 4 (15.12.2006 Zastosowanie informatyi
1. Logika, funkcje logiczne, preceptron.
Sieci neuronowe 1. Logika, funkcje logiczne, preceptron. 1. (Logika) Udowodnij prawa de Morgana, prawo pochłaniania p (p q), prawo wyłączonego środka p p oraz prawo sprzeczności (p p). 2. Wyraź funkcję
Obrona rozprawy doktorskiej Neuro-genetyczny system komputerowy do prognozowania zmiany indeksu giełdowego
IBS PAN, Warszawa 9 kwietnia 2008 Obrona rozprawy doktorskiej Neuro-genetyczny system komputerowy do prognozowania zmiany indeksu giełdowego mgr inż. Marcin Jaruszewicz promotor: dr hab. inż. Jacek Mańdziuk,
Sieć przesyłająca żetony CP (counter propagation)
Sieci neuropodobne IX, specyficzne architektury 1 Sieć przesyłająca żetony CP (counter propagation) warstwa Kohonena: wektory wejściowe są unormowane jednostki mają unormowane wektory wag jednostki są
Laboratorium Metod i Algorytmów Sterowania Cyfrowego
Laboratorium Metod i Algorytmów Sterowania Cyfrowego Ćwiczenie 3 Dobór nastaw cyfrowych regulatorów rzemysłowych PID I. Cel ćwiczenia 1. Poznanie zasad doboru nastaw cyfrowych regulatorów rzemysłowych..
Prawdopodobieństwo i statystyka
Zadanie Rozważmy następujący model strzelania do tarczy. Współrzędne puntu trafienia (, Y ) są niezależnymi zmiennymi losowymi o jednaowym rozładzie normalnym N ( 0, σ ). Punt (0,0) uznajemy za środe tarczy,
SCHEMAT ROZWIĄZANIA ZADANIA OPTYMALIZACJI PRZY POMOCY ALGORYTMU GENETYCZNEGO
SCHEMAT ROZWIĄZANIA ZADANIA OPTYMALIZACJI PRZY POMOCY ALGORYTMU GENETYCZNEGO. Rzeczywistość (istniejąca lub projektowana).. Model fizyczny. 3. Model matematyczny (optymalizacyjny): a. Zmienne projektowania
komputery? Andrzej Skowron, Hung Son Nguyen Instytut Matematyki, Wydział MIM, UW
Czego moga się nauczyć komputery? Andrzej Skowron, Hung Son Nguyen son@mimuw.edu.pl; skowron@mimuw.edu.pl Instytut Matematyki, Wydział MIM, UW colt.tex Czego mogą się nauczyć komputery? Andrzej Skowron,
2. Empiryczna wersja klasyfikatora bayesowskiego
Algorytmy rozpoznawania obrazów 2. Empiryczna wersja klasyfikatora bayesowskiego dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. Brak pełnej informacji probabilistycznej Klasyfikator bayesowski
Sygnały stochastyczne
Sygnały stochastyczne Zmienne losowe E zbiór zdarzeń elementarnych (zbiór możliwych wyniów esperymentu) e E zdarzenie elementarne (wyni esperymentu) B zbiór wybranych podzbiorów zbioru E β B zdarzenie
(U.3) Podstawy formalizmu mechaniki kwantowej
3.10.2004 24. (U.3) Podstawy formalizmu mechanii wantowej 33 Rozdział 24 (U.3) Podstawy formalizmu mechanii wantowej 24.1 Wartości oczeiwane i dyspersje dla stanu superponowanego 24.1.1 Założenia wstępne
Indukcja. Materiały pomocnicze do wykładu. wykładowca: dr Magdalena Kacprzak
Indukcja Materiały pomocnicze do wykładu wykładowca: dr Magdalena Kacprzak Charakteryzacja zbioru liczb naturalnych Arytmetyka liczb naturalnych Jedną z najważniejszych teorii matematycznych jest arytmetyka
Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE
Temat: Sztuczne Sieci Neuronowe Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Dr inż. Barbara Mrzygłód KISiM, WIMiIP, AGH mrzyglod@ agh.edu.pl 1 Wprowadzenie Sztuczne sieci neuronowe
Sztuczna Inteligencja Projekt
Sztuczna Inteligencja Projekt Temat: Algorytm LEM2 Liczba osób realizujących projekt: 2 1. Zaimplementować algorytm LEM 2. 2. Zaimplementować klasyfikator Classif ier. 3. Za pomocą algorytmu LEM 2 wygenerować
Optymalizacja harmonogramów budowlanych - problem szeregowania zadań
Mieczysław OŁOŃSI Wydział Budownictwa i Inżynierii Środowisa, Szoła Główna Gospodarstwa Wiejsiego, Warszawa, ul. Nowoursynowsa 159 e-mail: mieczyslaw_polonsi@sggw.pl Założenia Optymalizacja harmonogramów
Optymalizacja optymalizacji
7 maja 2008 Wstęp Optymalizacja lokalna Optymalizacja globalna Algorytmy genetyczne Badane czasteczki Wykorzystane oprogramowanie (Algorytm genetyczny) 2 Sieć neuronowa Pochodne met-enkefaliny Optymalizacja
Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek
Sztuczne sieci neuronowe Ćwiczenia Piotr Fulmański, Marta Grzanek Piotr Fulmański 1 Wydział Matematyki i Informatyki, Marta Grzanek 2 Uniwersytet Łódzki Banacha 22, 90-232, Łódź Polska e-mail 1: fulmanp@math.uni.lodz.pl,
Temat: Sieci neuronowe oraz technologia CUDA
Elbląg, 27.03.2010 Temat: Sieci neuronowe oraz technologia CUDA Przygotował: Mateusz Górny VIII semestr ASiSK Wstęp Sieci neuronowe są to specyficzne struktury danych odzwierciedlające sieć neuronów w
Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;
Sieci Hopfielda Najprostsze modele sieci z rekurencją sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga; Modele bardziej złoŝone: RTRN (Real Time Recurrent Network), przetwarzająca sygnały w czasie