Emergentne właściwości. sztucznych sieci neuronowych
|
|
- Iwona Malinowska
- 6 lat temu
- Przeglądów:
Transkrypt
1 Barbara Pankiewicz nauczyciel fizyki III Liceum Ogólnokształcące w Zamościu ul. Kilińskiego Zamość Emergentne właściwości sztucznych sieci neuronowych Opracowała: Barbara Pankiewicz Zamość, 2001
2 WSTĘP Od czasu pierwszych prymitywnych maszyn liczących ich twórcy i użytkownicy dokładali starań, aby przestały pełnić funkcję automatycznych kalkulatorów i stały się maszynami myślącymi". Jednak już samo pojęcie maszyny myślącej" jest dyskusyjne. Rozmaitość definicji popularnego określenia sztuczna inteligencja" jest zdumiewająca. Metody realizacji procesów myślowych w sposób imitujący przypuszczalne mechanizmy ludzkiego intelektu są nie mniej różnorodne. Sieci neuronowe reprezentują jedno z możliwych rozwiązań. Sieci neuronowe można traktować jako nowoczesne systemy obliczeniowe, które przetwarzają informacje wzorując się na zjawiskach zachodzących w mózgu człowieka. Informacje te mają charakter danych numerycznych, na podstawie których sieć neuronowa np. może posłużyć jako model obiektu o zupełnie nieznanej charakterystyce. 1
3 1. Neuron a perceptron Podstawowym elementem systemu nerwowego jest komórka nerwowa nazywana neuronem. Neuron biologiczny jest komórką zdolną wykonywać pewne obliczenia. Jest on pobudzany przez jedno lub wiele wejść i wytwarza wyjście wysyłane do innych neuronów. Rzeczywisty związek między wejściem a wyjściem może być niezmiernie złożony. Jeden neuron przekazuje pobudzenie innym neuronom przez złącza nerwowe zwane synapsami. Aby przedstawić model neuronu nawiązujący do pierwszych prób sformalizowania opisu działania komórki nerwowej wprowadźmy następujące oznaczenia: u 1,..., u N - sygnały wejściowe danego neuronu pochodzące od innych neuronów, w 1,..., w N - Wagi synaptyczne, y - sygnał wyjściowe neuronu, v - wartość progowa. Formuła opisująca działanie neuronu wyraża się zależnością: y=1 gdy y=0 gdy N w u i= N w u i= v < v Model może być zapisany w postaci: y = N i = w u 0 1 1) f ( (1.1) gdzie: oraz w 0 =v, u 0 =-1 f(x)=1 gdy x 0 f(x)=0 gdy x<0 (1.2) Wzór (1.1) opisuje model neuronu. Model ten został sformułowany w roku 1943 przez McCullocha i Pittsa. Jako funkcję f można przyjąć nie tylko funkcję jednostkową (1.2), ale również inne funkcje progowe postaci: f(x)= l gdy x>0 f(x)=-l gdy x<0 lub f(x)= 1 gdy x>l f(x)=-l gdy x<-l f (x) = x gdy x 1. Model McCullocha - Pittsa jest punktem wyjścia do konstrukcji najprostszej 2
4 jednokierunkowej sieci neuronowej o nazwie perceptron. Sieć taką zaproponował Rosenblatt w 1958r. Perceptron był oparty na modelu biologicznym i umiał się uczyć. Rosenblatt wprowadził wiele odmian perceptronu; ten najprostszy składa się z trzech warstw. Pierwsza to siatkówka" wejściowa. Jest ona połączona z warstwą drugą, złożoną z tzw. jednostek kojarzących", które pełnią funkcje detektora cech. Wreszcie ta warstwa jest połączona z warstwą odpowiedzi wyjściowej. Jednostki (neurony) tego modelu generują sygnał wyjściowy równy sumie ważonej sygnałów wejściowych z uwzględnienie progu. Uczenia perceptronu dokonuje się powtarzając prezentacje sygnałów próbki na wejściu siatkówki", obliczając wyjścia neuronów warstwy środkowej, używając tych wartości do obliczenia wyjść neuronów warstwy odpowiedzi, a następnie modyfikując wagi połączeń między warstwą środkową a warstwą odpowiedzi. Nie zmieniają się wagi łączące warstwę wejściową z warstwą środkową. A więc, chociaż sieć ma trzy warstwy, w rzeczywistości jest raczej siecią dwuwarstwową. Warstwa środkowa wykonuje wielkie zadanie przekształcenia obrazu wejściowego w celu wydobycia cech charakterystycznych. W praktyce stałe wagi łączące wejście z warstwą środkową mogą być ustawione na wykrywanie znanych cech albo mogą być wybrane przypadkowo. Rosenblatt udowodnił, że jeżeli perceptron może nauczyć się zbioru wzorców (przykładów) to ten algorytm uczenia jest zbieżny do zbioru wag, które realizują prawidłową odpowiedź dla każdego wzorca z danego zbioru. 2. Uczenie sieci - metoda wstecznej propagacji błędu Sieć neuronowa uczy się na ogół na dwa sposoby. Najczęstsze jest uczenie pod nadzorem. Zbieramy wiele próbek, które odgrywają rolę przykładów. Każda próbka zbioru uczącego całkowicie określa wszystkie wejścia, jak również wyjścia wymagane przy prezentacji tych danych wejściowych. Dla każdej próbki porównujemy aktualny sygnał wyjściowy sieci z sygnałem wejściowym, który chcielibyśmy otrzymać. Po przetworzeniu całego podzbioru próbek uczących korygujemy wagi łączące neurony w sieci. Tę korekcję prowadzimy w taki sposób, żeby osiągnąć zmniejszenie się miary błędu działania sieci. Inną podstawową metodą uczenia jest uczenie bez nadzoru. Tak jak w przypadku uczenia pod nadzorem, mamy zbiór próbek sygnałów wejściowych. Ale sieci nie doprowadzamy do pożądanych odpowiedzi wyjściowych na te próbki. Zwykle zakładamy, że każdy sygnał wyjściowy pochodzi z jednej spośród kilku klas i że wyjście sieci identyfikuje klasę, do której należy dany sygnał wejściowy. Proces uczenia sieci polega na umożliwieniu wykrycia istotnych cech zbioru uczącego i wykorzystaniu ich do grupowania sygnałów wejściowych na klasy, które sieć potrafi rozróżnić. Modele zdolne do uczenia bez nadzoru są szczególnie cenne w pracach badawczych. Pierwszą praktyczną metodą uczenia sieci wielowarstwowej jednokierunkowej była metoda wstecznej propagacji błędu. Algorytm wstecznej propagacji błędu jest najbardziej znany i najczęściej stosowany w dziedzinie sieci neuronowych. Opis tej metody w pracy Rumelharta i McClellanda (1986) wywołał duże zainteresowanie sztucznymi sieciami neuronowymi. Przyczyna nazwania algorytmu propagacji wstecznej jest oczywista, gdyż błędy warstwy wyjściowej są sukcesywnie propagowane wstecz przez sieć. W swej najbardziej podstawowej formie propagacja wsteczna jest tym, co programiści nazywają algorytmem spadku gradientu. Gradient funkcji wielu zmiennych jest kierunkiem najbardziej stromego zjeżdżania w dół. Mały krok w tym kierunku da w rezultacie maksymalny przyrost funkcji w porównaniu z jakimkolwiek innym kierunkiem. Ten sam krok 3
5 w przeciwnym kierunku da maksymalny spadek funkcji. Funkcją jest błąd sieci na zbiorze uczącym. Obliczanie gradientu tej funkcji wydaje się mieć sens, zróbmy krok w kierunku przeciwnym (kierunek ujemnego gradientu) i powtarzajmy to w miarę potrzeby. Prawie zawsze wykonujemy ruch w kierunku optymalnym w celu zmniejszenia błędu (przynajmniej lokalnie). Możemy oczekiwać, że dojdziemy do położenia błędu minimalnego dość szybko. Dokładna długość kroku, często zwana współczynnikiem uczenia, może ukazać się krytyczna. Jeśli ta długość okaże się za mała, to zbieżność będzie niezwykle powolna. Jeżeli będzie za duża, to będziemy wykonywać gwałtowne skoki i nigdy nie osiągniemy minimum. Istnieją dwa bardzo duże mankamenty tej metody. Pierwszy wynika z faktu, że gradient jest skrajnie lokalnym wskazaniem kierunku optymalnej zmiany funkcji. Nawet małe odchylenie może spowodować dużą różnicę kierunku gradientu. Te gwałtowne fluktuacje mogą wywołać poszukiwanie błędu minimalnego w sposób meandryczny, zwiększając odległość tysiące razy (czyli zmniejszając szybkość obliczeń) w stosunku do prostej drogi. Drugim problemem jest trudność w zorientowaniu się z góry, jak daleko posunąć się w kierunku ujemnego gradientu. Jeśli jesteśmy konserwatywni i robimy drobny krok, to niezwykle wiele czasu trzeba, aby wykonać obliczenia dla całości i wykonać obliczanie gradientu. Jeśli wykonamy za długi krok, to możemy doprowadzić w rzeczywistości do wzrostu błędu. Proponowano dziesiątki modyfikacji podstawowego algorytmu propagacji wstecznej. Najbardziej znane są następujące: 1) Zmień współczynnik uczenia (długość kroku w kierunku ujemnego gradientu) w miarę postępów uczenia. Staraj się utrzymać jak najdłuższe kroki bez przeskoków. 2) Zmodyfikuj wzór określający pochodną funkcji aktywacji, aby otrzymać trochę większe wartości. Utrudni to uniknięcie w ekstremum wartości wag, gdy pochodne są małe, ucieczka staje się trudna. 3) Nie modyfikuj wag jednocześnie na wszystkich warstwach. Modyfikuj wagi między pierwszą (ukrytą) warstwą i oblicz ponownie aktywacje dla tej warstwy. Użyj tych samych aktywacji do obliczenia poprawek dla następnej warstwy itd. Ta metoda po raz pierwszy opisana w pracy Samada (1998) wymaga wiele szczęścia, ale bardzo przyśpiesza zbieżność. Wspólnym motywem tych udoskonaleń jest próba bardziej racjonalnego wyjaśnienia wyników otrzymanych doświadczalnie, które są dodatkiem do i tak już empirycznego algorytmu. 3. Generalizacja Ucząc sieć neuronową dążymy do tego, aby w przyszłości potrafiła ona uogólniać nabytą wiedzę na obce jej, choć podobne problemy. Tę umiejętność nazywa się generalizacją. Mówi się, że sieć neuronowa dobrze generalizuje, kiedy odpowiedzi udzielane przez nią dla zestawu danych testowych są prawidłowe lub zawierają się w granicach ustalonego przez nas błędu. Dane testowe muszą pochodzić z tej samej populacji co dane wykorzystane do uczenia sieci ale różne od nich. Proces nauczania można porównać do problemu aproksymacji funkcji nieliniowej. Jest to możliwe, gdyż wielowarstwowy perceptron z ciągłą funkcją aktywacji daje na wyjściu także funkcję ciągłą, więc samą sieć można rozważać jako nieliniowe odwzorowanie wejścia w wyjście. Przy takim rozumieniu generalizacja to po prostu wynik dobrej nieliniowej interpolacji danych wejściowych. Sieć powinna być zaprojektowana tak, aby potrafiła generalizować nawet wtedy, 4
6 gdy dane wejściowe są zupełnie inne niż te użyte do jej uczenia. Używając zbyt dużej ilości neuronów ukrytych można doprowadzić do efektu przetrenowania sieci. Wtedy sieć działa jak tablica, w której zapamiętane są prawidłowe odpowiedzi dla danych testowych, a nie następuje uogólnienie wiedzy o generującym te odpowiedzi odwzorowaniu. Na jakość generalizacji mają wpływ trzy zasadnicze czynniki: 1) złożoność problemu, 2) architektura (budowa) sieci, 3) długość i jakość ciągu uczącego. Na pierwszy z nich nie mamy żadnego wpływu. W praktyce najczęściej spotykamy się też z sytuacją, gdy nie mamy żadnego wpływu na wybór architektury sieci.. Pozostaje nam, w związku z tym, tylko możliwość takiego doboru długości ciągu uczącego, by uzyskać sieć o najlepszej generalizacji. Sieć prawie dokładnie dostarcza generalizacji przy założeniu, że spełnione są dwa warunki: 1) ułamek błędów popełnionych na ciągu uczącym jest mały, 2) liczba przykładów użytych do nauki jest wystarczająco duża. 4. Predykcja Jednym z najważniejszych zadań stawianych przed sieciami neuronowymi jest predykcja, czyli przewidywanie określonych danych wyjściowych na podstawie danych wejściowych, często także po samodzielnym ustaleniu związków łączących dane wyjściowe z wejściowymi. Ważną zaletą sieci neuronowych jako narzędzia prognozującego jest fakt, że w wyniku procesu uczenia sieć może nabyć zdolność przewidywania sygnałów wyjściowych bez konieczności stawiania w sposób jasny hipotez o naturze związku pomiędzy wejściowymi danymi i przewidywanymi wynikami, a więc sieć może nauczyć się prognozować sygnały wyjściowe także wtedy, gdy korzystający z niej nic nie wie o naturze związków łączących przesłanki z wnioskami. Sieci neuronowe ze względu na dobre właściwości uogólniające dobrze nadają się do rozwiązywania różnego rodzaju zadań predykcyjnych, np. do predykcji obciążeń godzinnych polskiego systemy elektroenergetycznego. Cechą charakterystyczną obciążeń ww. systemu jest powtarzalność wzorców charakteryzujących obciążenia godzinne, odpowiadające różnym typom dnia tygodnia i miesiąca. Każda godzina dnia charakteryzuje się swoją specyfiką. Duży wpływ na dokładność predykcji ma znajomość obciążenia z ostatniej godziny, która jest dobrym wskaźnikiem, co może zdarzyć się w godzinie następnej. Przy predykcji obciążenia godzinnego sieć zawiera tylko jeden neuron wyjściowy, liniowy, dostarczający informacji, jakie będzie obciążenie systemu w następnej godzinie. Liczba węzłów wejściowych sieci neuronowej zależy od czynników branych pod uwagę w procesie predykcji. Wiąże się to ściśle ze sposobem przygotowania danych wejściowych do sieci. Pierwszym czynnikiem uwzględnianym w procesie predykcji jest typ dnia. Przy rozróżnieniu 4 typów wystarczą 2 węzły do ich binarnego zakodowania: (0, 0) - sobota, (0, 1) - niedziela, (1, 0) - poniedziałek, (1,1) - pozostałe dni tygodnia. Przy uwzględnianiu dwóch typów dni: dzień roboczy i dzień świąteczny, wystarczy użycie jednego węzła wejściowego o przypisanej wartości zerowej odpowiadającej świętu i wartości jedynkowej odpowiadającej dniu roboczemu. W modelu predykcji uwzględnia się obciążenia systemu o danej godzinie i kilka godzin wstecz dla dni poprzedzających predykcje. Jeśli p(i, t) oznaczy się pobór mocy systemu odpowiadający i-temu dniu o godzinie t, to zastosowany model nieliniowy można opisać równaniem: 5
7 p(i, t) = f(w, y(i, t-1), y(i-1, t),...,y(i-1, t-k), y(i-2, t),...y(i-d, t-k)), w którym W prezentuje wektor wag sieci, y(j, τ) - Znane obciążenie systemu w dniu j-tym o godzinie τ, a k i d - liczbę odpowiednio godzin i dni wstecz, branych pod uwagę w procesie predykcji. Z wielu eksperymentów numerycznych przeprowadzonych dla polskiego systemu elektroenergetycznego wynika, że najlepsze wyniki odpowiadały wektorom wejściowym 8- lub 9- elementowym (1 lub 2 węzły do kodowania typu dnia, 3 węzły dla obciążenia o godzinie t dla trzech ostatnich dni, 3 węzły dla obciążenia trzech ostatnich dni o godzinie t-1 i jeden węzeł dla obciążenia tego samego dnia o godzinie t-1). Najtrudniejszy jest dobór liczby neuronów w warstwie ukrytej. Zbyt mała liczba neuronów ukrytych uniemożliwia zredukowanie błędu uczenia do odpowiednio niskiego poziomu. Zbyt duża ich liczba jest również zła ze względu na duży błąd uogólniania. Taka sieć nie przedstawiałaby w praktyce żadnej wartości. Ostatni problem w przygotowaniu danych to podział danych na część uczącą (sprawdzającą) i testującą. Przy dostępnej bazie danych z lat 1993 i 1994 oraz dla skrócenia czasu uczenia trenowanie sieci przeprowadzono na połowie danych jednego roku, przy czym baza danych uczących obejmowała wszystkie sezony: lato, zimę, wiosnę i jesień. Przy większej dostępnej bazie danych można odpowiednio powiększyć bazę uczącą uwzględniając w pierwszej kolejności dane najnowsze i odrzucając wielkości nietypowe, stanowiące istotne odchylenie od normy. W efekcie proces prognozowania obciążenia można przedstawić w następujący sposób: dobór architektury sieci neuronowej; wybór danych uczących i struktury wektorów wejściowych; trening sieci neuronowej; testowanie sieci na zbiorze sprawdzającym i przeprowadzenie ewentualnie dalszego douczenia; użycie sieci jako predyktora obciążenia godzinnego w fazie odtworzeniowej (właściwy etap użytkowania); ewentualna adaptacja sieci po upływie pewnego okresu, np. roku. Badania eksperymentalne predykcji na bazie danych polskiego systemu elektroenergetycznego z lat 1993 i 1994 przeprowadzono przy zastosowaniu programu Netteach. 6
8 ZAKOŃCZENIE Sztuczne sieci neuronowe bywają na ogół lepsze od innych metod, gdyż odznaczają się zarówno mocnymi podstawami teoretycznymi, jak i użytecznością w praktyce. Dowolny problem, który można rozwiązać metodą tradycyjnego modelowania albo metodami statystycznymi może być na ogół skuteczniej rozwiązany przy użyciu sieci neuronowych dzięki ich emergentnym właściwościom, tj. zdolności do uczenia się, uogólniania nabytej wiedzy czy prognozowania oraz innym cechom takim jak zdolność do klasyfikacji czy redukcja zakłóceń. Sieć ma właściwość sztucznej inteligencji. Wytrenowana na wybranej grupie danych uczących potrafi skojarzyć nabytą wiedzę i wykazać dobre działanie nawet na danych nie uczestniczących w procesie uczenia. Sztuczne sieci neuronowe to przyszłość sieci komputerowych. 7
9 LITERATURA 1. Osowski S., Sieci neuronowe w ujęciu algorytmicznym, WNT, Warszawa Tadeusiewicz R., Sieci neuronowe. Akademicka Oficyna Wydawnicza, Warszawa Korbicz J., Obuchowicz A., Uciński D., Sztuczne sieci neuronowe, podstawy i zastosowania. Akademicka Oficyna Wydawnicza, Warszawa Rutkowska R., Piliński M., Rutkowski L., Sieci neuronowe, algorytmy genetyczne i systemy rozmyte. Wydawnictwo Naukowe PWN, Masters T., Sieci neuronowe w praktyce, WNT, Warszawa Okrojek A., Generalizacja i uwierzytelnianie - referat Internet. 8
Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE
Temat: Sztuczne Sieci Neuronowe Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Dr inż. Barbara Mrzygłód KISiM, WIMiIP, AGH mrzyglod@ agh.edu.pl 1 Wprowadzenie Sztuczne sieci neuronowe
Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu
Literatura Wykład : Wprowadzenie do sztucznych sieci neuronowych Małgorzata Krętowska Wydział Informatyki Politechnika Białostocka Tadeusiewicz R: Sieci neuronowe, Akademicka Oficyna Wydawnicza RM, Warszawa
Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.
Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe. zajecia.jakubw.pl/nai Literatura: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym. WNT, Warszawa 997. PODSTAWOWE ZAGADNIENIA TECHNICZNE AI
1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda
Sieci neuropodobne 1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN Agenda Trochę neurobiologii System nerwowy w organizmach żywych tworzą trzy
PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH**
Górnictwo i Geoinżynieria Rok 31 Zeszyt 3 2007 Dorota Pawluś* PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH** 1. Wstęp Eksploatacja górnicza złóż ma niekorzystny wpływ na powierzchnię
Sztuczna Inteligencja Tematy projektów Sieci Neuronowe
PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia
Podstawy Sztucznej Inteligencji (PSZT)
Podstawy Sztucznej Inteligencji (PSZT) Paweł Wawrzyński Uczenie maszynowe Sztuczne sieci neuronowe Plan na dziś Uczenie maszynowe Problem aproksymacji funkcji Sieci neuronowe PSZT, zima 2013, wykład 12
Sztuczne sieci neuronowe
www.math.uni.lodz.pl/ radmat Cel wykładu Celem wykładu jest prezentacja różnych rodzajów sztucznych sieci neuronowych. Biologiczny model neuronu Mózg człowieka składa się z około 10 11 komórek nerwowych,
Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.
Wstęp do teorii sztucznej inteligencji Wykład III Modele sieci neuronowych. 1 Perceptron model najprostzszy przypomnienie Schemat neuronu opracowany przez McCullocha i Pittsa w 1943 roku. Przykład funkcji
Widzenie komputerowe
Widzenie komputerowe Uczenie maszynowe na przykładzie sieci neuronowych (3) źródła informacji: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym, WNT 1996 Zdolność uogólniania sieci neuronowej R oznaczenie
Temat: Sieci neuronowe oraz technologia CUDA
Elbląg, 27.03.2010 Temat: Sieci neuronowe oraz technologia CUDA Przygotował: Mateusz Górny VIII semestr ASiSK Wstęp Sieci neuronowe są to specyficzne struktury danych odzwierciedlające sieć neuronów w
Sieci neuronowe jako sposób na optymalizacje podejmowanych decyzji. Tomasz Karczyoski Wydział W-08 IZ
optymalizacje podejmowanych decyzji Tomasz Karczyoski Wydział W-08 IZ Czym są sieci neuronowe Struktura matematycznych oraz programowy lub sprzętowy model, realizujących obliczenia lub przetwarzanie sygnałów
PRÓBA ZASTOSOWANIA SIECI NEURONOWYCH DO PROGNOZOWANIA OSIADAŃ POWIERZCHNI TERENU POWSTAŁYCH NA SKUTEK EKSPLOATACJI GÓRNICZEJ**
Górnictwo i Geoinżynieria Rok 30 Zeszyt 4 2006 Dorota Pawluś* PRÓBA ZASTOSOWANIA SIECI NEURONOWYCH DO PROGNOZOWANIA OSIADAŃ POWIERZCHNI TERENU POWSTAŁYCH NA SKUTEK EKSPLOATACJI GÓRNICZEJ** 1. Wstęp Na
Metody Sztucznej Inteligencji II
17 marca 2013 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką, która jest w stanie odbierać i przekazywać sygnały elektryczne. Neuron działanie Jeżeli wartość sygnału
8. Neuron z ciągłą funkcją aktywacji.
8. Neuron z ciągłą funkcją aktywacji. W tym ćwiczeniu zapoznamy się z modelem sztucznego neuronu oraz przykładem jego wykorzystania do rozwiązywanie prostego zadania klasyfikacji. Neuron biologiczny i
WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice)
WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO Stanisław Kowalik (Poland, Gliwice) 1. Wprowadzenie Wstrząsy podziemne i tąpania występujące w kopalniach
Elementy inteligencji obliczeniowej
Elementy inteligencji obliczeniowej Paweł Liskowski Institute of Computing Science, Poznań University of Technology 9 October 2018 1 / 19 Perceptron Perceptron (Rosenblatt, 1957) to najprostsza forma sztucznego
Zastosowania sieci neuronowych
Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką
Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta
Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa
Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe
Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Trening jednokierunkowych sieci neuronowych wykład 2. dr inż. PawełŻwan Katedra Systemów Multimedialnych Politechnika Gdańska
Zastosowanie sztucznych sieci neuronowych w prognozowaniu szeregów czasowych (prezentacja 2)
Zastosowanie sztucznych sieci neuronowych w prognozowaniu szeregów czasowych (prezentacja 2) Ewa Wołoszko Praca pisana pod kierunkiem Pani dr hab. Małgorzaty Doman Plan tego wystąpienia Teoria Narzędzia
Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści
Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, 2013 Spis treści Przedmowa 7 1. Wstęp 9 1.1. Podstawy biologiczne działania neuronu 9 1.2. Pierwsze modele sieci neuronowej
PRZEWODNIK PO PRZEDMIOCIE
Nazwa przedmiotu: Kierunek: Mechatronika Rodzaj przedmiotu: obowiązkowy Rodzaj zajęć: wykład, laboratorium I KARTA PRZEDMIOTU CEL PRZEDMIOTU PRZEWODNIK PO PRZEDMIOCIE C1. Zapoznanie studentów z inteligentnymi
Sztuczne Sieci Neuronowe. Wiktor Tracz Katedra Urządzania Lasu, Geomatyki i Ekonomiki Leśnictwa, Wydział Leśny SGGW
Sztuczne Sieci Neuronowe Wiktor Tracz Katedra Urządzania Lasu, Geomatyki i Ekonomiki Leśnictwa, Wydział Leśny SGGW SN są częścią dziedziny Sztucznej Inteligencji Sztuczna Inteligencja (SI) zajmuje się
Zastosowania sieci neuronowych
Zastosowania sieci neuronowych klasyfikacja LABORKA Piotr Ciskowski zadanie 1. klasyfikacja zwierząt sieć jednowarstwowa żródło: Tadeusiewicz. Odkrywanie własności sieci neuronowych, str. 159 Przykład
Wstęp do sztucznych sieci neuronowych
Wstęp do sztucznych sieci neuronowych Michał Garbowski Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Wydział Informatyki 15 grudnia 2011 Plan wykładu I 1 Wprowadzenie Inspiracja biologiczna
Sztuczne sieci neuronowe
Wydział Zarządzania AGH Katedra Informatyki Stosowanej Sztuczne sieci neuronowe Sztuczne sieci neuronowe Wprowadzenie Trochę historii Podstawy działania Funkcja aktywacji Typy sieci 2 Wprowadzenie Zainteresowanie
Sztuczne sieci neuronowe (SNN)
Sztuczne sieci neuronowe (SNN) Pozyskanie informacji (danych) Wstępne przetwarzanie danych przygotowanie ich do dalszej analizy Selekcja informacji Ostateczny model decyzyjny SSN - podstawy Sieci neuronowe
1. Logika, funkcje logiczne, preceptron.
Sieci neuronowe 1. Logika, funkcje logiczne, preceptron. 1. (Logika) Udowodnij prawa de Morgana, prawo pochłaniania p (p q), prawo wyłączonego środka p p oraz prawo sprzeczności (p p). 2. Wyraź funkcję
synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.
Sieci neuronowe model konekcjonistyczny Plan wykładu Mózg ludzki a komputer Modele konekcjonistycze Perceptron Sieć neuronowa Uczenie sieci Sieci Hopfielda Mózg ludzki a komputer Twój mózg to 00 000 000
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-10-15 Projekt
Uczenie sieci typu MLP
Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik
Prognozowanie kierunku ruchu indeksów giełdowych na podstawie danych historycznych.
Metody Sztucznej Inteligencji 2 Projekt Prognozowanie kierunku ruchu indeksów giełdowych na podstawie danych historycznych. Autorzy: Robert Wojciechowski Michał Denkiewicz Mateusz Gągol Wstęp Celem projektu
Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe
Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe wykład 1. Właściwości sieci neuronowych Model matematyczny sztucznego neuronu Rodzaje sieci neuronowych Przegląd d głównych g
Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.
Wstęp do teorii sztucznej inteligencji Wykład II Uczenie sztucznych neuronów. 1 - powtórzyć o klasyfikacji: Sieci liniowe I nieliniowe Sieci rekurencyjne Uczenie z nauczycielem lub bez Jednowarstwowe I
Podstawy sztucznej inteligencji
wykład 5 Sztuczne sieci neuronowe (SSN) 8 grudnia 2011 Plan wykładu 1 Biologiczne wzorce sztucznej sieci neuronowej 2 3 4 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką,
wiedzy Sieci neuronowe
Metody detekcji uszkodzeń oparte na wiedzy Sieci neuronowe Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 7 Wprowadzenie Okres kształtowania się teorii sztucznych sieci
Inteligentne systemy przeciw atakom sieciowym
Inteligentne systemy przeciw atakom sieciowym wykład Sztuczne sieci neuronowe (SSN) Joanna Kołodziejczyk 2016 Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 1 / 36 Biologiczne
ID1SII4. Informatyka I stopień (I stopień / II stopień) ogólnoakademicki (ogólno akademicki / praktyczny) stacjonarne (stacjonarne / niestacjonarne)
Załącznik nr 7 do Zarządzenia Rektora nr 10/12 z dnia 21 lutego 2012r. KARTA MODUŁU / KARTA PRZEDMIOTU Kod modułu ID1SII4 Nazwa modułu Systemy inteligentne 1 Nazwa modułu w języku angielskim Intelligent
6. Perceptron Rosenblatta
6. Perceptron Rosenblatta 6-1 Krótka historia perceptronu Rosenblatta 6-2 Binarne klasyfikatory liniowe 6-3 Struktura perceptronu Rosenblatta 6-4 Perceptron Rosenblatta a klasyfikacja 6-5 Perceptron jednowarstwowy:
ALGORYTMY SZTUCZNEJ INTELIGENCJI
ALGORYTMY SZTUCZNEJ INTELIGENCJI Sieci neuronowe 06.12.2014 Krzysztof Salamon 1 Wstęp Sprawozdanie to dotyczy ćwiczeń z zakresu sieci neuronowych realizowanym na przedmiocie: Algorytmy Sztucznej Inteligencji.
wiedzy Sieci neuronowe (c.d.)
Metody detekci uszkodzeń oparte na wiedzy Sieci neuronowe (c.d.) Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 8 Metody detekci uszkodzeń oparte na wiedzy Wprowadzenie
SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe
SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe JOANNA GRABSKA-CHRZĄSTOWSKA Wykłady w dużej mierze przygotowane w oparciu o materiały i pomysły PROF. RYSZARDA TADEUSIEWICZA BUDOWA RZECZYWISTEGO NEURONU
I EKSPLORACJA DANYCH
I EKSPLORACJA DANYCH Zadania eksploracji danych: przewidywanie Przewidywanie jest podobne do klasyfikacji i szacowania, z wyjątkiem faktu, że w przewidywaniu wynik dotyczy przyszłości. Typowe zadania przewidywania
Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3
Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3 Andrzej Rutkowski, Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-11-05 Projekt
PRZEWODNIK PO PRZEDMIOCIE
Nazwa przedmiotu: Kierunek: Inżynieria Biomedyczna Rodzaj przedmiotu: obowiązkowy moduł specjalności informatyka medyczna Rodzaj zajęć: wykład, laboratorium BIOCYBERNETYKA Biocybernetics Forma studiów:
Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD X: Sztuczny neuron
Elementy kognitywistyki II: Sztuczna inteligencja WYKŁAD X: Sztuczny neuron Koneksjonizm: wprowadzenie 1943: Warren McCulloch, Walter Pitts: ogólna teoria przetwarzania informacji oparta na sieciach binarnych
Optymalizacja ciągła
Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej
MODELOWANIE RZECZYWISTOŚCI
MODELOWANIE RZECZYWISTOŚCI Daniel Wójcik Instytut Biologii Doświadczalnej PAN Szkoła Wyższa Psychologii Społecznej d.wojcik@nencki.gov.pl dwojcik@swps.edu.pl tel. 022 5892 424 http://www.neuroinf.pl/members/danek/swps/
ZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE
ZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE INSTYTUT TECHNOLOGII MECHANICZNEJ Metody Sztucznej Inteligencji Sztuczne Sieci Neuronowe Wstęp Sieci neuronowe są sztucznymi strukturami, których
Obrona rozprawy doktorskiej Neuro-genetyczny system komputerowy do prognozowania zmiany indeksu giełdowego
IBS PAN, Warszawa 9 kwietnia 2008 Obrona rozprawy doktorskiej Neuro-genetyczny system komputerowy do prognozowania zmiany indeksu giełdowego mgr inż. Marcin Jaruszewicz promotor: dr hab. inż. Jacek Mańdziuk,
Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner. rok akademicki 2013/2014
Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner rok akademicki 2013/2014 Sieci neuronowe Sieci neuronowe W XIX wieku sformułowano teorię opisującą podstawowe
Projekt Sieci neuronowe
Projekt Sieci neuronowe Chmielecka Katarzyna Gr. 9 IiE 1. Problem i dane Sieć neuronowa miała za zadanie nauczyć się klasyfikować wnioski kredytowe. W projekcie wykorzystano dane pochodzące z 110 wniosków
Uczenie sieci neuronowych i bayesowskich
Wstęp do metod sztucznej inteligencji www.mat.uni.torun.pl/~piersaj 2009-01-22 Co to jest neuron? Komputer, a mózg komputer mózg Jednostki obliczeniowe 1-4 CPU 10 11 neuronów Pojemność 10 9 b RAM, 10 10
Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska
Sieci neuronowe w Statistica Agnieszka Nowak - Brzezioska Podstawowym elementem składowym sztucznej sieci neuronowej jest element przetwarzający neuron. Schemat działania neuronu: x1 x2 w1 w2 Dendrites
Uniwersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych
Uniwersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych ELEMENTY SZTUCZNEJ INTELIGENCJI Laboratorium nr 6 SYSTEMY ROZMYTE TYPU MAMDANIEGO
Jakość uczenia i generalizacja
Jakość uczenia i generalizacja Dokładność uczenia Jest koncepcją miary w jakim stopniu nasza sieć nauczyła się rozwiązywać określone zadanie Dokładność mówi na ile nauczyliśmy się rozwiązywać zadania które
SIEĆ NEURONOWA JAKO NARZĘDZIE APROKSYMACJI I KLASYFIKACJI DANYCH. Jakub Karbowski Gimnazjum nr 17 w Krakowie
SIEĆ NEURONOWA JAKO NARZĘDZIE APROKSYMACJI I KLASYFIKACJI DANYCH Jakub Karbowski Gimnazjum nr 17 w Krakowie KRAKÓW 2017 1. Spis treści 2. WSTĘP 2 3. SIECI NEURONOWE 2 3.1. Co to są sieci neuronowe... 2
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.
Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-10-11 1 Modelowanie funkcji logicznych
Lekcja 5: Sieć Kohonena i sieć ART
Lekcja 5: Sieć Kohonena i sieć ART S. Hoa Nguyen 1 Materiał Sieci Kohonena (Sieć samo-organizująca) Rysunek 1: Sieć Kohonena Charakterystyka sieci: Jednowarstwowa jednokierunkowa sieć. Na ogół neurony
Metody sztucznej inteligencji
Metody sztucznej inteligencji sztuczne sieci neuronowe - wstęp dr hab. inż. Andrzej Obuchowicz, prof. UZ Instytut Sterowania i Systemów Informatycznych Uniwersytet Zielonogórski A. Obuchowicz Metody sztucznej
METODY INŻYNIERII WIEDZY
METODY INŻYNIERII WIEDZY SZTUCZNE SIECI NEURONOWE MLP Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej Katedra Automatyki i Inżynierii
Podstawy Sztucznej Inteligencji Sztuczne Sieci Neuronowe. Krzysztof Regulski, WIMiIP, KISiM, B5, pok. 408
Podstawy Sztucznej Inteligencji Sztuczne Sieci Neuronowe Krzysztof Regulski, WIMiIP, KISiM, regulski@aghedupl B5, pok 408 Inteligencja Czy inteligencja jest jakąś jedną dziedziną, czy też jest to nazwa
Sieci neuronowe w Statistica
http://usnet.us.edu.pl/uslugi-sieciowe/oprogramowanie-w-usk-usnet/oprogramowaniestatystyczne/ Sieci neuronowe w Statistica Agnieszka Nowak - Brzezińska Podstawowym elementem składowym sztucznej sieci neuronowej
Metody i techniki sztucznej inteligencji / Leszek Rutkowski. wyd. 2, 3 dodr. Warszawa, Spis treści
Metody i techniki sztucznej inteligencji / Leszek Rutkowski. wyd. 2, 3 dodr. Warszawa, 2012 Spis treści Przedmowa do wydania drugiego Przedmowa IX X 1. Wstęp 1 2. Wybrane zagadnienia sztucznej inteligencji
Inteligentne systemy informacyjne
Inteligentne systemy informacyjne Moduł 10 Mieczysław Muraszkiewicz www.icie.com.pl/lect_pw.htm M. Muraszkiewicz strona 1 Sieci neuronowe szkic Moduł 10 M. Muraszkiewicz strona 2 Dwa nurty M. Muraszkiewicz
Oprogramowanie Systemów Obrazowania SIECI NEURONOWE
SIECI NEURONOWE Przedmiotem laboratorium jest stworzenie algorytmu rozpoznawania zwierząt z zastosowaniem sieci neuronowych w oparciu o 5 kryteriów: ile zwierzę ma nóg, czy żyje w wodzie, czy umie latać,
SZTUCZNE SIECI NEURONOWE W MODELOWANIU ZJAWISK ZACHODZĄCYCH NA RYNKU NIERUCHOMOŚCI
Dr Agnieszka MAZUR-DUDZIŃSKA Politechnika Łódzka, Katedra Zarządzania SZTUCZNE SIECI NEURONOWE W MODELOWANIU ZJAWISK ZACHODZĄCYCH NA RYNKU NIERUCHOMOŚCI Streszczenie: Celem referatu jest zastosowanie sztucznych
BIOCYBERNETYKA SIECI NEURONOWE. Akademia Górniczo-Hutnicza. Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej.
Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej BIOCYBERNETYKA Adrian Horzyk SIECI NEURONOWE www.agh.edu.pl Mózg inspiruje nas od wieków Co takiego
Prof. Stanisław Jankowski
Prof. Stanisław Jankowski Zakład Sztucznej Inteligencji Zespół Statystycznych Systemów Uczących się p. 228 sjank@ise.pw.edu.pl Zakres badań: Sztuczne sieci neuronowe Maszyny wektorów nośnych SVM Maszyny
Budowa sztucznych sieci neuronowych do prognozowania. Przykład jednostek uczestnictwa otwartego funduszu inwestycyjnego
Budowa sztucznych sieci neuronowych do prognozowania. Przykład jednostek uczestnictwa otwartego funduszu inwestycyjnego Dorota Witkowska Szkoła Główna Gospodarstwa Wiejskiego w Warszawie Wprowadzenie Sztuczne
SAS wybrane elementy. DATA MINING Część III. Seweryn Kowalski 2006
SAS wybrane elementy DATA MINING Część III Seweryn Kowalski 2006 Algorytmy eksploracji danych Algorytm eksploracji danych jest dobrze zdefiniowaną procedurą, która na wejściu otrzymuje dane, a na wyjściu
ZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ
ZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ Maciej Patan Uniwersytet Zielonogórski WSTEP Zadanie minimalizacji bez ograniczeń f(ˆx) = min x R nf(x) f : R n R funkcja ograniczona z dołu Algorytm rozwiazywania Rekurencyjny
Uczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0
Uczenie się pojedynczego neuronu W0 X0=1 W1 x1 W2 s f y x2 Wp xp p x i w i=x w+wo i=0 Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z=0 Wówczas: W 1 x 1 + w 2 x 2 + = 0 Algorytm
Definicja perceptronu wielowarstwowego
1 Sieci neuronowe - wprowadzenie 2 Definicja perceptronu wielowarstwowego 3 Interpretacja znaczenia parametrów sieci 4 Wpływ wag perceptronu na jakość aproksymacji 4.1 Twierdzenie o uniwersalnych właściwościach
PRZEWODNIK PO PRZEDMIOCIE
Nazwa przedmiotu: Kierunek: Informatyka Rodzaj przedmiotu: obowiązkowy w ramach treści kierunkowych, moduł kierunkowy oólny Rodzaj zajęć: wykład, laboratorium I KARTA PRZEDMIOTU CEL PRZEDMIOTU PRZEWODNIK
Systemy uczące się wykład 2
Systemy uczące się wykład 2 dr Przemysław Juszczuk Katedra Inżynierii Wiedzy, Uniwersytet Ekonomiczny 19 X 2018 Podstawowe definicje Fakt; Przesłanka; Konkluzja; Reguła; Wnioskowanie. Typy wnioskowania
4.1. Wprowadzenie...70 4.2. Podstawowe definicje...71 4.3. Algorytm określania wartości parametrów w regresji logistycznej...74
3 Wykaz najważniejszych skrótów...8 Przedmowa... 10 1. Podstawowe pojęcia data mining...11 1.1. Wprowadzenie...12 1.2. Podstawowe zadania eksploracji danych...13 1.3. Główne etapy eksploracji danych...15
Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;
Sieci Hopfielda Najprostsze modele sieci z rekurencją sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga; Modele bardziej złoŝone: RTRN (Real Time Recurrent Network), przetwarzająca sygnały w czasie
Algorytmy decyzyjne będące alternatywą dla sieci neuronowych
Algorytmy decyzyjne będące alternatywą dla sieci neuronowych Piotr Dalka Przykładowe algorytmy decyzyjne Sztuczne sieci neuronowe Algorytm k najbliższych sąsiadów Kaskada klasyfikatorów AdaBoost Naiwny
KADD Minimalizacja funkcji
Minimalizacja funkcji n-wymiarowych Forma kwadratowa w n wymiarach Procedury minimalizacji Minimalizacja wzdłuż prostej w n-wymiarowej przestrzeni Metody minimalizacji wzdłuż osi współrzędnych wzdłuż kierunków
Systemy uczące się Lab 4
Systemy uczące się Lab 4 dr Przemysław Juszczuk Katedra Inżynierii Wiedzy, Uniwersytet Ekonomiczny 26 X 2018 Projekt zaliczeniowy Podstawą zaliczenia ćwiczeń jest indywidualne wykonanie projektu uwzględniającego
Aproksymacja funkcji a regresja symboliczna
Aproksymacja funkcji a regresja symboliczna Problem aproksymacji funkcji polega na tym, że funkcję F(x), znaną lub określoną tablicą wartości, należy zastąpić inną funkcją, f(x), zwaną funkcją aproksymującą
Sztuczna inteligencja
Sztuczna inteligencja Wykład 7. Architektury sztucznych sieci neuronowych. Metody uczenia sieci. źródła informacji: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym, WNT 1996 Podstawowe architektury
SIECI RBF (RADIAL BASIS FUNCTIONS)
SIECI RBF (RADIAL BASIS FUNCTIONS) Wybrane slajdy z prezentacji prof. Tadeusiewicza Wykład Andrzeja Burdy S. Osowski, Sieci Neuronowe w ujęciu algorytmicznym, Rozdz. 5, PWNT, Warszawa 1996. opr. P.Lula,
WYKŁAD 9 METODY ZMIENNEJ METRYKI
WYKŁAD 9 METODY ZMIENNEJ METRYKI Kierunki sprzężone. Metoda Newtona Raphsona daje dobre przybliżenie najlepszego kierunku poszukiwań, lecz jest to okupione znacznym kosztem obliczeniowym zwykle postać
SZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA WYKŁAD 4. UCZENIE SIĘ INDUKCYJNE Częstochowa 24 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska WSTĘP Wiedza pozyskana przez ucznia ma charakter odwzorowania
Optymalizacja optymalizacji
7 maja 2008 Wstęp Optymalizacja lokalna Optymalizacja globalna Algorytmy genetyczne Badane czasteczki Wykorzystane oprogramowanie (Algorytm genetyczny) 2 Sieć neuronowa Pochodne met-enkefaliny Optymalizacja
HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM
ZASTOSOWANIE SIECI NEURONOWYCH W SYSTEMACH AKTYWNEJ REDUKCJI HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM WPROWADZENIE Zwalczanie hałasu przy pomocy metod aktywnych redukcji hałasu polega
Automatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010
Materiały/konsultacje Automatyczna predykcja http://www.ibp.pwr.wroc.pl/kotulskalab Konsultacje wtorek, piątek 9-11 (uprzedzić) D1-115 malgorzata.kotulska@pwr.wroc.pl Co to jest uczenie maszynowe? Uczenie
Badacze zbudowali wiele systemów technicznych, naśladujących w komputerze ludzki mózg. Najbardziej pożyteczne okazały się sieci neuronowe.
Naśladując w komputerze ludzki mózg staramy się połączyć zalety komputera (dostępność i szybkość działania) z zaletami mózgu (zdolność do uczenia się) informatyka + 2 Badacze zbudowali wiele systemów technicznych,
SIEĆ NEURONOWA DO OCENY KOŃCOWEJ PRZEDSIĘWZIĘCIA (PROJEKTU)
SIEĆ NEURONOWA DO OCENY KOŃCOWEJ PRZEDSIĘWZIĘCIA (PROJEKTU) 1. Opis problemu - ocena końcowa projektu Projekt jako nowe, nietypowe przedsięwzięcie wymaga właściwego zarządzania. Podjęcie się realizacji
Zastosowania sieci neuronowych - automatyka identyfikacja sterowanie
Zastosowania sieci neuronowych - automatyka identyfikacja sterowanie LABORKA Piotr Ciskowski ZASTOSOWANIA SIECI NEURONOWYCH IDENTYFIKACJA zastosowania przegląd zastosowania sieci neuronowych: o identyfikacja
Sieci neuronowe jako przykład współczesnej technologii informatycznej
Maciej Roszkowski Sieci neuronowe jako przykład współczesnej technologii informatycznej Sieci neuronowe są technologią sztucznej inteligencji, trochę zapomnianą we współczesnym świecie. Współczesny ogólnie
Informatyka I stopień (I stopień / II stopień) ogólno akademicki (ogólno akademicki / praktyczny) kierunkowy (podstawowy / kierunkowy / inny HES)
Załącznik nr 7 do Zarządzenia Rektora nr 10/12 z dnia 21 lutego 2012r. KARTA MODUŁU / KARTA PRZEDMIOTU Kod modułu Zastosowanie sztucznych sieci neuronowych Nazwa modułu w informatyce Application of artificial
Testowanie modeli predykcyjnych
Testowanie modeli predykcyjnych Wstęp Podczas budowy modelu, którego celem jest przewidywanie pewnych wartości na podstawie zbioru danych uczących poważnym problemem jest ocena jakości uczenia i zdolności
Obliczenia Naturalne - Sztuczne sieci neuronowe
Literatura Wprowadzenie Obliczenia Naturalne - Sztuczne sieci neuronowe Paweł Paduch Politechnika Świętokrzyska 13 marca 2014 Paweł Paduch Obliczenia Naturalne - Sztuczne sieci neuronowe 1 z 43 Plan wykładu
Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład I dr inż. 2015/2016
Systemy pomiarowo-diagnostyczne Metody uczenia maszynowego wykład I dr inż. Bogumil.Konopka@pwr.edu.pl 2015/2016 1 Wykład I - plan Sprawy organizacyjne Uczenie maszynowe podstawowe pojęcia Proces modelowania
Spis treści. Przedmowa... XI. Rozdział 1. Pomiar: jednostki miar... 1. Rozdział 2. Pomiar: liczby i obliczenia liczbowe... 16
Spis treści Przedmowa.......................... XI Rozdział 1. Pomiar: jednostki miar................. 1 1.1. Wielkości fizyczne i pozafizyczne.................. 1 1.2. Spójne układy miar. Układ SI i jego
ELEMENTY SZTUCZNEJ INTELIGENCJI. Sztuczne sieci neuronowe
ELEMENTY SZTUCZNEJ INTELIGENCJI Sztuczne sieci neuronowe Plan 2 Wzorce biologiczne. Idea SSN - model sztucznego neuronu. Perceptron prosty i jego uczenie regułą delta Perceptron wielowarstwowy i jego uczenie